Дисертації з теми "Planification du traitement"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Planification du traitement.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Planification du traitement".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Baussé, Jérôme. "Recalage et planification du traitement en radiothérapie et protonthérapie." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00566712.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre d'un important et ambitieux projet de renouvellement de son centre, l'ICPO (Institut Curie - Centre de Protonthérapie d'Orsay) renouvelle ses logiciels dédiés au traitement des patients par protonthérapie, technique de radiothérapie utilisant des faisceaux de protons. Les hautes énergies utilisées durant les traitements, ainsi que la précision offerte par les caractéristiques des particules de proton, nécessitent une mise en place du patient plus précise qu'en radiothérapie classique. Le sujet de cette thèse est né de ces problématiques, puisqu'il vise à utiliser les informations RX intrinsèques aux images, et renouveler l'offre logicielle liée à la planification de la dose. Aujourd'hui, le deuxième objectif est parfaitement rempli, puisque le logiciel Isogray est utilisé en routine clinique, et les premiers patients planifiés avec son aide ont d'ores et déjà été traités. Le premier objectif quant à lui, même s'il a pu progresser de manière significative, n'a pas pu aboutir dans le temps imparti pour la thèse, des mises au point ainsi que des tests cliniques étant encore nécessaires. Cependant, les premiers résultats obtenus sont encourageants et ont permis de soulever les premiers problèmes à résoudre, Cette thèse s'inscrit dans le cadre d'un partenariat entre l'ICPO et la société DOSIsoft, leader européen des logiciels de planification de traitement, fournissant les logiciels dernière génération utilisés à l'ICPO. Le savoir faire du laboratoire TSI (Traitement du Signal et de l'Image) de Télécom ParisTech vient s'ajouter à ce partenariat, apportant une plus-value scientifique conséquente.
2

Bausse, Jérôme. "Recalage et planification du traitement en radiothérapie et protonthérapie." Paris, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00566712.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre d'un important et ambitieux projet de renouvellement de son centre, l'ICPO (Institut Curie – Centre de Protonthérapie d'Orsay) renouvelle ses logiciels dédiés au traitement des patients par protonthérapie, technique de radiothérapie utilisant des faisceaux de protons. Les hautes énergies utilisées durant les traitements, ainsi que la précision offerte par les caractéristiques des particules de proton, nécessitent une mise en place du patient plus précise qu'en radiothérapie classique. Le sujet de cette thèse est né de ces problématiques, puisqu'il vise à utiliser les informations RX intrinsèques aux images, et renouveler l'offre logicielle liée à la planification de la dose. Aujourd'hui, le deuxième objectif est parfaitement rempli, puisque le logiciel Isogray est utilisé en routine clinique, et les premiers patients planifiés avec son aide ont d'ores et déjà été traités. Le premier objectif quant à lui, même s'il a pu progresser de manière significative, n'a pas pu aboutir dans le temps imparti pour la thèse, des mises au point ainsi que des tests cliniques étant encore nécessaires. Cependant, les premiers résultats obtenus sont encourageants et ont permis de soulever les premiers problèmes à résoudre. Cette thèse s'inscrit dans le cadre d'un partenariat entre l'ICPO et la société DOSIsoft, leader européen des logiciels de planification de traitement, fournissant les logiciels dernière génération utilisés à l'ICPO. Le savoir faire du laboratoire TSI (Traitement du Signal et de l'Image) de Télécom ParisTech vient s'ajouter à ce partenariat, apportant une plus-value scientifique conséquente
In an important and ambitious project which aim is to renew treatment center installations, ICPO (Institut Curie – Centre de Protonthérapie d'Orsay) develop new software, dedicated to patients’ treatment using protons’ beam. High energies used during treatment, and precision obtained from protons’ beam particles, requires a more precise patient positioning than in classical radiotherapy. This thesis subject is born from these considerations, goal is using only anatomical data in positioning images, and renew software used for dosimetric planification. Today, we achieved second goal, Isogray (a thesis’ partner main product) is used in clinical way, and first patients planed with it have already been treated. First goal, even if it has progressed a lot during this thesis work, can’t be achieved before thesis’ end, tests and tuning still necessary. First results are hopeful, and they revealed problems to be solved in order to finalize developments. This thesis has been done in a partnership between ICPO and DOSIsoft society, European leader in treatment planification systems, providing software used at ICPO. TSI (Signal and Image Treatment) laboratory’s knowledge, in Télécom ParisTech, comes in this partnership as scientific reference, with a strong background in field of medical research
3

Ndiaye, Amadou. "Planification de traitement physico-chimique par niveaux d'integration differents. Modele act." Paris 7, 1991. http://www.theses.fr/1991PA077250.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La formulation de traitement physico-chimique a pour objectif d'etablir le plan d'action optimal a executer pour traiter un materiau dans un environnement de materiels et de savoir-faire. Les donnees sur le materiau sont incertaines et le traitement peut comporter plusieurs etapes en interaction. Nous avons etabli un modele original act (aide a la conception de traitement physico-chimique) qui integre l'environnement materiel et le savoir-faire des manipulateurs. L'integration est obtenue par une representation holistique progressive de l'espace suivant l'heuristique holistique/localites et son organisation en nid#s (niveaux d'integration differents) hierarchiques. Cette representation est traitee a l'aide d'un principe de planification hierarchique distribuee, d3-d (description, determination et developpement distribue). La generation de plan d'action est menee par propagation de contraintes suivant d3-d, avec une interpretation du probleme en fonction des donnees. Les composantes conceptuelles sont de deux ordres: les entites de representation du probleme et des sous-problemes regroupant les objets abstraits et les plans, et les sources de connaissances et agents de la planification a savoir les contraintes, le contexte et les operateurs abstraits. Les interactions entre les sous-buts sont traitees en fonction des relations teleologiques, d'ordre, d'objet, hierarchiques et semantiques entre les composantes conceptuelles. Act a ete eprouve sur la preparation blanchiment de textile: le systeme pretex
4

Lavallée, Marie-Claude. "Irradiation corporelle totale dynamique à vitesse variable : de la planification au traitement." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27688/27688.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Striegnitz, Kristina. "Génération d'expressions anaphoriques : Raisonnement contextuel et planification de phrases." Nancy 1, 2004. http://www.theses.fr/2004NAN10186.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur le raisonnement contextuel impliqué par la production d'expressions anaphoriques dans un système de génération de langue naturelle. Plus précisément, nous proposons des stratégies pour générer deux types d'anaphore n'ayant encore jamais été considérés dans la génération : les anaphores associatives et les adverbes additifs. Dans ce but, nous formalisons tout d'abord les conditions contextuelles déterminant l'usage de ces expressions. Cette formalisation est basée sur des notions linguistiques, et étend les approches antérieures de génération d'anaphores co-référentielles. Ensuite, nous spécifions les tâches de raisonnement à effectuer pour vérifier ces conditions contextuelles. Nous décrivons comment ces tâches peuvent être implémentées en utilisant un système d'inférence pour les logiques de description, et nous comparons notre approche à des approches alternatives utilisant d'autres systèmes d'inférence. Pour finir, nous décrivons une implémentation expérimentale de notre approche
This thesis investigates the contextual reasoning involved in the production of anaphoric expressions in natural language generation systems. More specifically, I propose generation strategies for two types of discourse anaphora which have not been treated in generation before: bridging descriptions and additive particles. To this end the contextual conditions that govern the use of these expressions have to be formalized. The formalization that I propose is based on notions from linguistics and extends previous approaches to the generation of co-referential anaphora. I then specify the reasoning tasks that have to be carried out in order to check the contextual conditions. I describe how they can be implemented using a state-of-the-art reasoning system for description logics, and I compare my proposal to alternative approaches using other kinds of reasoning tools. Finally, I describe an experimental implementation of the proposed approach
6

Shen, Wei. "Planification de trajectoires en présence d'obstacles à partir d'images de l'environnemeent." Poitiers, 1996. http://www.theses.fr/1996POIT2306.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous presentons dans cette these nos etudes sur la planification de trajectoires dans l'espace 2-d/3-d en robotique. Nous presentons d'abord deux methodes pour la planification de trajectoires en presence des obstacles de formes polygonales dans l'espace 2-d. La premiere est basee sur les graphes de visibilite. La seconde utilise les points de demarcation pour reduire la complexite de calcul. Pour resoudre effectivement le probleme en presence des obstacles de formes arbitraires, nous proposons la troisieme methode qui consiste en un reseau neuronal pour transformer l'espace libre en trajectoires et un reseau de cellules pour l'optimisation. En presence d'obstacles de formes arbitraires dans l'espace 2-d/3-d, nous proposons et recommandons la methode du reseau de diffusion potentielle. Le champ du potentiel dans l'espace libre est calcule par un reseau de diffusion et le plus court chemin est alors determine par la ligne d'iso-potentiel du champ ainsi calcule. L'implantation dans les cas discrets est presentee egalement. Les images numeriques 2-d/3-d representant les scenes sont generalement des images de niveaux de gris multiples. Par consequent, avant d'appliquer la planification de trajectoires, un pre-traitement tel que la detection de contours sera necessaire pour segmenter les obstacles de l'espace libre. Afin d'ameliorer la precision et de reduire la complexite de calcul, nous proposons la methode de l'integration de hermite pour mieux detecter les contours dans les images bruitees a l'aide des filtres gaussiens. La realisation numerique de la methode est egalement presentee. Nous avons ensuite generalise cette methode a la realisation des autres filtres lineaires, y compris la methode de l'integration de laguerre
7

Le, Maitre Amandine. "Optimisation de l'utilisation de l'imagerie TEP pour la planification de traitement en radiothérapie." Thesis, Brest, 2012. http://www.theses.fr/2012BRES0029.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La Tomographie par Émission de Positon (TEP) combinée à l'imagerie scanner est intéressante pour la planification de traitement en radiothérapie. Elle réduit la variabilité inter et intra-observateur dans la définition du volume cible et permet de visualiser les hétérogénéités biologiques. Plusieurs algorithmes de segmentation ont été proposés mais aucun ne fait consensus. Pour valider ces algorithmes, les simulations de Monte-Carlo offrent la possibilité de maîtriser la vérité terrain et l'ensemble des paramètres d'acquisition.Nous avons proposé plusieurs méthodologies d'amélioration du réalisme des simulations. Des jeux de données présentant une variabilité anatomique, une hétérogénéité tumorale réaliste et intégrant les mouvements respiratoires ont ainsi été générés.Ces données ont été utilisées dans une première étude sur la segmentation du volume cible. Plusieurs algorithmes ont été comparés dans le cadre de la planification de traitement. L'utilisation de données simulées a permis de relier la précision de la segmentation à la qualité de la couverture de la vérité terrain. Nous avons aussi étudié l'impact de la respiration sur la précision de la segmentation.L'utilisation d'un algorithme de segmentation avancé permettant de définir un sous-volume plus actif pour la prescription d'une dose hétérogène a été proposée. Plusieurs scénarios de prescription ont été comparés en terme de probabilité de contrôle tumorale (TCP) calculée sur la TEP. La variabilité de la TCP liée aux paramètres d'acquisitions a été quantifiée. L'impact du contraste et de la taille du sous-volume fut étudié. Pour finir l'apport d'un ajout de compartiments à de telles prescriptions a été analysé
There has been an increasing interest for the use Positron Emission Tomography (PET) combined with Computed Tomography for radiotherapy treatment planning. It improves target volume delineation by reducing inter and intra-observer variability and allows visualizing biological heterogeneities. Plethoras of segmentation algorithm have been proposed but there is a lack of consensus regarding which one to use. Monte Carlo simulations are interesting to validate these algorithms since they allow creating datasets with known ground-truth and for which all acquisition parameters are controlled.We proposed several methodologies for improving the realism of simulations. Several datasets incorporating patient specific variability in terms of anatomy and activity distributions, realistic tumor shape and activity modeling and integrating the respiratory motions were created.These data were used in a first study concerning target volume definition. Several algorithms were compared for radiotherapy treatment planning. The accuracy of segmentation was related to the quality of ground-truth volume coverage. We also studied the impact of respiratory motion on segmentation accuracy.We investigated the use of an advanced segmentation method able to define high uptake sub-volumes, for heterogeneous dose prescriptions. Several scenarios of prescriptions were compares in terms of Tumor Control Probability (TCP) computed on PET images. Variability of this TCP due to acquisition parameters was quantified. The impact of contrast and size of sub-volume was studied. Finally we studied the usefulness of the addition of compartments to such heterogeneous prescriptions
8

Gaborit, Paul. "Planification distribuée pour la coopération multi-agents." Phd thesis, Université Paul Sabatier - Toulouse III, 1996. http://tel.archives-ouvertes.fr/tel-00142562.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Permettre à plusieurs agents de planifier et de coordonner leurs activités de manière distribuée tel est l'objectif des travaux présentés dans ce mémoire. L'approche proposée s'appuie sur des opérateurs de composition de plans. Afin de gérer au mieux les interactions entre différents agents, leurs plans sont produits par IxTeT, un système de planification permettant la prise en compte de contraintes temporelles numériques et gérant le parallélisme des tâches ainsi que le partage de ressources. Les deux premiers chapitres décrivent le formalisme logique utilisé par IxTeT ainsi que le fonctionnement du planificateur lui-même et les améliorations qu'il est possible d'y apporter. Le troisième chapitre détaille alors formellement les méthodes et algorithmes permettant de réaliser des opérateurs de composition de plans: union de plans, insertion de nouveaux buts dans un plan existant. On y démontre leurs limites théoriques. Le quatrième chapitre décrit la mise en œuvre de ces opérateurs en exhibant des algorithmes tant pour améliorer les performances de la planification incrémentale mono-agent que pour réaliser un système distribué de planification multi-agents. Dans ce système, un plan global est élaboré par composition successive de plans individuels. Ce plan global reste implicite et n'est donc jamais centralisé. On présente ensuite les problèmes spécifiques rencontrés lorsque planification et exécution sont réalisées simultanément. Ces problèmes ouverts sont cruciaux dans un contexte multi-agents. Le document se termine par une illustration et une évaluation sur des exemples appliqués au domaine multi-robots permettant d'apprécier les avantages mais aussi les limites de l'utilisation de ces opérateurs de composition de plans et par une comparaison avec un autre système de planification distribuée.
9

Madakat, Dalal. "Approches multicritères pour le traitement des débris spatiaux." Thesis, Paris 9, 2014. http://www.theses.fr/2014PA090019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les débris spatiaux constituent une menace pour l'exploration et l'exploitation de l'espace. Leur nombre ne cesse d'augmenter et continuera à grandir même si on arrête toute activité spatiale, augmentant ainsi la probabilité d'entrer en collision avec un satellite actif. Le retrait des débris s'avère le seul moyen de protéger ces satellites. Le nombre des débris spatiaux étant très élevé, il convient préalablement de repérer les plus dangereux.Dans la première partie de la thèse, nous avons élaboré une approche multicritère afin de classer les débris selon leur degré de priorité d'enlèvement. Les débris de la classe la plus prioritaire, feront l'objet d'une mission spatiale de retrait de débris.La planification d'une telle mission est étudiée dans la deuxième partie de la thèse. Elle doit être réalisée en minimisant deux critères : le coût de la mission ainsi que la durée nécessaire pour traiter tous les débris
Space debris are a threat for the space exploitation and exploration. Their number will continue to increase even if we stop all space activities, making collisions between debris and operational satellites more likely to happen. Debris removal proves necessary to protect active satellites. Since the number of space debris is very high, we should first deal with the most dangerous ones.In the first part of this thesis, we have developed a multicriteria approach to categorize debris depending on their removal priority degree. Debris belonging to the most urgent category will be dealt with during a space mission. The planning of such a space mission is studied in the second part of this thesis.The planning should be designed while optimizing two criteria: mission cost and mission duration
10

Schleifer, Jacques. "Traitement de l'information et des connaissances dans la planification des mines à ciel ouvert." Paris, ENMP, 1986. http://www.theses.fr/1986ENMP0139.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Schleifer, Jacques. "Traitement de l'information et des connaissances dans la planification des mines à ciel ouvert." Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb37601075h.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Acosta-Tamayo, Oscar Dario. "De la navigation exploratoire virtuelle à la planification d'interventions endovasculaires." Rennes 1, 2004. https://tel.archives-ouvertes.fr/tel-00007555v2.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre général des interventions assistées par ordinateur, nos travaux, abordés essentiellement en terme d'imagerie virtuelle, se sont focalisés sur la phase préopératoire (analyse, modélisation, simulation) dans un objectif de planification réaliste de traitements mini-invasifs de lésions vasculaires (angioplastie transluminale, pose d'endoprothèse aortique, brachythérapie endovasculaire). De nouvelles fonctionnalités d'analyse locale et de description géométrique associées à un capteur virtuel sont proposées. A l'issue de cette exploration virtuelle analytique des données patient (imagerie TDM), la description géométrique de structures complexes ainsi que la détermination de paramètres caractérisant les structures vasculaires sont envisagées au regard du planning interventionnel et évaluées sur modèle animal et sur données patient. Une première approche de simulation spécifique patient d'interactions outils / tissus en angioplastie transluminale est finalement proposée.
13

Capdevielle, Olivier. "Formulation d'objectifs de traitement d'images : une exploitation interactive d'un système de planification automatique de chaînes d'opérateurs." Toulouse 3, 1995. http://www.theses.fr/1995TOU30003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif d'un utilisateur de systeme de traitement d'images est en general de rendre explicite une information presente dans l'image. La tache a realiser est la construction d'un plan d'actions sous la forme d'un graphe d'operateurs qui permet d'atteindre l'objectif. Dans les systemes actuels, l'aide a cette construction consiste a fournir un environnement de manipulation graphique des chaines. Ceci facilite la mise au point mais la conception reste a la charge de l'utilisateur. Pour apporter une aide supplementaire on doit disposer d'un systeme de planification automatique et permettre son exploitation interactive. Ainsi la tache de l'utilisateur se reduit a fournir la description de son objectif a l'aide d'un systeme de formulation. Le systeme de formulation doit manipuler de maniere non ambigue le formalisme du systeme de planification: dans notre cas des descriptions bas-niveau d'entites de traitement d'images. L'etude des difficultes rencontrees par l'utilisateur fait apparaitre des problemes de perception et de generalisation des descriptions construites. Aussi les interactions supportant la manipulation des descripteurs doivent etre basees sur plusieurs espaces interactifs complementaires associant specification sur l'exemple et specification dans le domaine conceptuel de l'application. Cette dualite permet d'etablir un controle sur les descriptions construites. Pour une meilleure perception d'ensemble et une localisation precise d'erreur, la description doit etre manipulee au travers d'un graphe de nuds multi-formes correspondant a l'arbre de generalisation-specialisation des descriptions et permettant d'associer resultat et description. Cette etude propose donc une modelisation de la tache de conception d'application de traitement d'images, isole les principales difficultes rencontrees et propose un modele d'interaction pour la manipulation de descriptions d'objectifs de traitement d'images. Ces principes ont ete implantes dans le systeme sati qui fournit un environnement de construction incrementale de description d'objectifs de traitements d'images et permet la resolution de probleme sans connaissance des operateurs de traitement d'images
14

Clerc, Xavier. "Planification dans un espace de buts par stratégie de type meilleur d'abord." Grenoble INPG, 2007. http://www.theses.fr/2007INPG0059.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La plupart des systèmes de planification distribuée sont fondés sur des modèles qui ont été développés pour de 1 planification centralisée. Ces modèles ont ensuite été adaptés au contexte de la distribution et aux problèmes pécifiques qui en découlent. Notre objectif est au contraire de développer un modèle de planification qui intègre a priori les contraintes de la distribution. Pour cela, nous développons un modèle de planification utilisant une recherche de type meilleur d'abord (nous adaptons à cette fin des algorithmes de la famille proof-number search). Nous déclinons ce modèle pour la planification d'une part sur des structures de tâches utilisées dans les systèmes multi-agents et d'autres part sur le formalisme HTN. Dans ce second cas, nous montrons en particulier comment une recherche de type meilleur d'abord permet d'accumuler au plus vite des contraintes qui permettent de fermer certaines branches de l'espace de Ia recherche. Nous nous intéressons en outre à la robustesse des plans produits, c'est-à-dire à la capacité d'un groupe ki'agents planifiants à pallier l'absence d'une ressource ou la défaillance d'un agent
Most of distributed planning systems are based on models which were developped for centralized planning. These models have then been adapted to distribution and its specific contraints. Our goal is at the opposite to design a planning model that considers these constraints as premises. We have developped a planning model that uses a best-first search (as an adaptation of the proof-number search algorithm). We have applied this model to planning over task structures (from multiagent notations) as well as to HTN planning. Ln this latter case, we have shown how a best-first search allows the planner to rapidly gather constraints that can prune branches from the search space. We have also defined plan robustness in order to mitigate the consequences of an agent failure or a resource unavailability
15

Chové, Étienne. "Contributions à l'ordonnancement réactif des installations de traitement de surface : application industrielle." Nantes, 2010. https://archive.bu.univ-nantes.fr/pollux/show/show?id=95fa6cc4-e88b-48be-8455-ec2d4ae6d1b8.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse de doctorat aborde le problème de l’ordonnancement réactif des installations de traitement de surface. L’émergence, sur le marché industriel, d’entreprises implantées dans des pays à faible coût de production et la réduction de l’horizon de planification de la production, imposent une révision du mode de pilotage. Depuis une décennie, des chercheurs travaillent sur le pilotage réactif, mode d’organisation dans lequel aucune décision n’est prise à l’avance. Ce mode de pilotage a l’avantage de répondre aux aléas de production et aux commandes volatiles, tout en assurant de bonnes performances. Il s’oppose principalement au pilotage prédictif dans lequel l’affectation des tâches aux différentes ressources se fait a priori. Le traitement de surface est une étape de la production des pièces consistant à modifier la structure physico-chimique de la surface des pièces par immersion dans différents produits chimiques. Les pièces sont transportées par des ponts roulants, ressource généralement critique. Les temps de traitement, commençant avec l’immersion par le pont et se terminant par la reprise du pont, sont généralement bornés, ce qui impose au problème des contraintes temporelles fortes non présentes dans d’autres problèmes d’ordonnancement. Cette thèse propose d’appliquer le mode de pilotage réactif à ces installations fortement contraintes. Après avoir démontré l’impossibilité d’une telle approche, parce qu’elle ne permet pas d’assurer la qualité des traitements appliqués aux produits, nous proposons une nouvelle solution au problème par l’utilisation couplée d’un ordonnancement réactif donnant la flexibilité recherchée et un ordonnancement prédictif assurant la qualité des produits. Cette thèse se termine par deux applications connexes à ce problème : la définition de la topologie d’une installation de traitement de surface à l’aide d’un algorithme génétique et l’aide au lancement des produits dans une telle installation. La validation du concept scientifique développé à été réalisée dans un premier temps par simulation de flux. Le réalisme de la solution proposée à été montré par le déploiement de ces travaux au niveau industriel
This thesis deals with the reactive hoist scheduling problem. The emergence of the industrial market companies located in countries with low production costs and reducing the planning horizon of production require a revision of the scheduling methods. Over the past 10 years, researchers are working on the reactive scheduling, method in which no decision is taken in advance. This method scheduling offers the advantage of responding to variations in production and variable requests, while ensuring a good performance. This is opposed to predictive scheduling, in which the allocation of tasks to different resources is done a priori. The surface treatment is a step in the part production cycle dealing with modification of the physicochemical structure of the surface of parts by immersion in different chemicals. The parts are transported by crane (or hoist), which is generally the critical resource. The processing time, starting with dumping in the tanks and ending with the resumption of the hoist, are generally limited, which imposes strong temporal constraints, which are not present in other scheduling problems. This thesis attempts to apply the reactive scheduling to these facilities constraints. Having demonstrated the impossibility of such an approach, we solve the problem by using a coupled reactive scheduling (assuming flexibility) and predictive scheduling (ensuring quality). This thesis concludes with two applications related to this problem: the definition of the topology of a surface treatment facility using a genetic algorithm and support for product order in such a facility. The deployment at the industry level of this work is the best proof of the scientific concept developed
16

Cedilnik, Nicolas. "Personnalisation basée sur l'imagerie de modèles cardiaques électrophysiologiques pour la planification du traitement de la tachycardie ventriculaire." Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4097.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La survie lors de la phase aiguë de l'infarctus du myocarde a énormément progressé au cours des dernières décennies, augmentant ainsi la mortalité des affections liées à l'infarctus chronique.Parmi ces pathologies, la tachycardie ventriculaire (TV) est une arythmie particulièrement grave qui peut conduire à la fibrillation ventriculaire, souvent fatale.La TV peut être traitée par ablation par radio-fréquences du substrat arythmogène.La première phase de cette procédure, longue et risquée, est une exploration électrophysiologique (EP) du cœur consistant à déterminer les cibles de cette ablation, notamment en provoquant l'arythmie dans un environnement contrôléDans cette thèse, nous proposons de re-créer in silico cette phase exploratoire, en personnalisation des modèles cardiaques EP.Nous montrons que des informations clefs à propos de la localisation et de l'hétérogénéité de la cicatrice d'infarctus peuvent être obtenues automatiquement par une segmentation d'images tomodensitométriques (TDM) utilisant un réseau de neurones artificiels.Notre but est alors d'utiliser ces informations pour réaliser des simulations spécifiques à un patient de la propagation de l'onde de dépolarisation dans le myocarde, reproduisant la phase exploratoire décrite plus haut.Nous commençons par étudier la relation entre la vitesse de l'onde de dépolarisation et l'épaisseur du ventricule gauche, relation qui permet de personnaliser un modèle EP Eikonal; cette approche permet fr reproduire des cartes d'activations périodiques du ventricule gauche obtenues durant des TV.Nous proposons ensuite des algorithmes efficaces pour détecter l'onde de repolarisation sur les électrogrammes unipolaires (EGU), que nous utilisons pour analyser les EGU contenus dans les enregistrements intra-cardiaques à notre disposition.Grâce à un recalage multimodal entre ces enregistrements et des images TDM, nous établissons des relations entre durées de potentiels d'action (DPA)/propriétés de restitutions de DPA et épaisseur du ventricule gauche.Enfin, ces relations sont utilisés pour paramétrer un modèle de réaction-diffusion capable de reproduire fidèlement les protocoles d'induction des cardiologues interventionnels qui provoquent des TV réalistes et documentées
Acute infarct survival rates have drastically improved over the last decades, mechanically increasing chronic infarct related affections.Among these affections, ischaemic ventricular tachycardia (VT) is a particularly serious arrhythmia that can lead to the often lethal ventricular fibrillation. VT can be treated by radio frequency ablation of the arrhythmogenic substrate.The first phase of this long and risky interventional cardiology procedure is an electrophysiological (EP) exploration of the heart.This phase aims at localising the ablation targets, notably by inducing the arrhythmia in a controlled setting. In this work we propose to re-create this exploration phase in silico, by personalising cardiac EP models.We show that key information about infarct scar location and heterogeneity can be automatically obtained by a deep learning-based automated segmentation of the myocardium on computed tomography (CT) images.Our goal is to use this information to run patient-specific simulations of depolarisation wave propagation in the myocardium, mimicking the interventional cardiology exploration phase.We start by studying the relationship between the depolarisation wave propagation velocity and the left ventricular wall thickness to personalise an Eikonal model, an approach that can successfully reproduce periodic activation maps of the left ventricle recorded during VT.We then propose efficient algorithms to detect the repolarisation wave on unipolar electrograms (UEG), that we use to analyse the UEGs embedded in such intra-cardiac recordings.Thanks to a multimodal registration between these recordings and CT images, we establish relationships between action potential durations/restitution properties and left ventricular wall thickness.These relationships are finally used to parametrise a reaction-diffusion model able to reproduce interventional cardiologists' induction protocols that trigger realistic and documented VTs. inteinterventional cardiologists' induction protocols that trigger realistic and documented VTs
17

Adnan, Hashmi Muhammad. "Un langage de programmation agent intégrant la planification temporelle et les mécanismes de coordination de plans." Paris 6, 2012. http://www.theses.fr/2012PA066312.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Largent, Axel. "Planification de radiothérapie externe à partir d'imagerie par résonance magnétique." Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S085/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En radiothérapie externe, l'imagerie par rayons X (CT-scan et CBCT) est l'imagerie de référence pour la planification et la délivrance du traitement. Le CT-scan permet l'accès aux densités électroniques des tissus, requises pour le calcul de dose. Le CBCT permet le positionnement du patient, le tracking et le gating de la tumeur. Cependant, l'imagerie par rayons X présente un faible contraste entre les tissus mous et est irradiante. Grâce à un meilleur contraste, l'IRM pourrait améliorer le positionnement du patient, la délinéation des volumes d'intérêt, et le ciblage de la dose. L'IRM présente ainsi un intérêt majeur pour la planification de radiothérapie. L'objectif de cette thèse a été premièrement d'optimiser un protocole d'acquisition d'images IRM de la sphère ORL, avec patient en position de traitement. Le second objectif a été de réaliser une dosimétrie à partir de l'IRM. Cependant, à contrario du CT-scan, l'IRM ne fournit pas la densité électronique des tissus. Pour palier cela, une méthode patch-based (PBM) et une méthode de deep learning (DLM) ont été utilisées pour générer des pseudo-CT, et calculer la dose. La DLM fut un réseau antagoniste génératif et la PBM fut développée en utilisant une recherche de patchs similaires avec des descripteurs d'images. Ces méthodes ont été évaluées et comparées à une méthode atlas (ABM) et une méthode d'assignation de densité (BDM) à partir de critères de jugement images et dosimétriques. La DLM et la PBM apparurent comme les méthodes les plus précises. La DLM fut la méthode la plus rapide et robuste aux variations anatomiques
In external beam radiotherapy, X-ray imaging (CT-scan and CBCT) is the main imaging modality for treatment planning and dose delivery. CT-scan provides the electron density information required for dose calculation. CBCT allows fast imaging for patient positioning, tracking and gating of the tumor. However, X-ray imaging has a poor soft tissue contrast, and it is an ionizing imaging, in contrast of MRI. Thanks to this better soft tissue contrast, MRI could improve patient positioning, tumor and organs at risk delineation, and dose targeting. The introduction of MRI in the radiotherapy workflow is therefore a topical issue. This thesis firstly aims to optimize an MRI protocol with patient in head-and-neck radiotherapy treatment position. This protocol was endorsed by our clinical center. The second aim of this thesis was to conducted dose calculation from MRI. However, this imaging, unlike CT, lacks the electron density information required for dose calculation. To address this issue, an original non-local-mean patch-based method (PBM) and a deep learning method (DLM) were used to generate pseudo-CTs from MRIs, and compute the dose. The DLM was a generative adversarial network, and the PBM was performed by using an approximate nearest neighbor search with MR feature images. These both methods were evaluated and compared to an atlas-based method (ABM) and a bulk density method (BDM). This comparison was performed by using image and dosimetric endpoints. The DLM and PBM appeared the most accurate methods. The DLM was faster and more robust to anatomical variations than the PBM
19

Barbeau, Richard. "Un modèle intégré de planification de production et de gestion des résidus pour le traitement des sables bitumineux." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26220/26220.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Desmarais, Julie. "La planification du traitement auprès des détenus fédéraux incarcérés en centre de traitement psychiatrique : situation du Centre régional de santé mentale de la région du Québec." Thèse, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6453.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Elst, Johannes van den. "Modélisation de connaissances pour le pilotage de programmes de traitement d'images." Nice, 1996. http://www.theses.fr/1996NICE4995.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le pilotage de programmes consiste en la (re)utilisation des programmes d'une bibliothèque prédéfinie. Ceci exige des connaissances sur les programmes, les entités manipulées par les programmes, ainsi que des connaissances sur la façon de sélectionner les programmes pertinents, de les ordonner, de les exécuter, et finalement de contrôler leur exécution et d'optimiser leurs résultats pour un domaine d'application particulier. Dans cette thèse nous présentons comment ces connaissances peuvent être représentées explicitement pour le domaine du traitement d'images. Une telle description explicite des connaissances rend les compétences des experts accessibles aux utilisateurs novices et leur permet de composer et d'exécuter des processus composites basés sur des programmes de traitement d'images élémentaires. Nous proposons une spécification fonctionnelle des connaissances sur les programmes de la bibliothèque, sur les données manipulées, ainsi que sur la planification et l'exécution des programmes. Cette spécification fonctionnelle a été implantée dans un moteur de pilotage de programmes pulsar. Ce moteur a été testé avec une application de détection d'objets dans des scènes routières (Prométhée) et une application en imagerie médicale (afsim)
22

Lopez, Thomas. "Planification de Chemin et adaptation de posture en environnement dynamique." Phd thesis, INSA de Rennes, 2012. http://tel.archives-ouvertes.fr/tel-00767784.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les mondes virtuels sont aujourd'hui utilisés dans de nombreux domaines applicatifs. Ces mondes virtuels sont généralement peuplés à l'aide d'agents autonomes qui rendent ces environnements plus vivants. L'autonomie de ces agents va reposer en grande partie sur leur capacité à naviguer au sein de l'environnement virtuel. Cette capacité de navigation est cruciale puisqu'elle va permettre à un agent d'aller à la découverte de son environnement, et d'augmenter ses possibilités d'action au sein du monde. La navigation des agents virtuels est donc un centre d'intérêt commun à de nombreux domaines utilisant des environnements virtuels. Dans le cadre d'applications interactives, telles que le jeu vidéo, l'accent est mis sur les performances de calcul de la méthode. À l'inverse, dans le cadre de méthodes de production, telles que le cinéma d'animation, le résultat final sera en général produit hors-ligne mais des méthodes de prévisualisation rapides sont utilisées afin d'obtenir à l'avance une idée du résultat final. Dans le cadre de cette thèse, nous avons proposé une nouvelle solution de planification en environnements dynamiques. Ceux-ci possèdent une configuration qui va évoluer au cours du temps de manière non-connue a priori. Afin de répondre à cette problématique de planification de chemin, nous avons tout d'abord introduit une nouvelle représentation des objets définissant explicitement les interactions existantes entre un objet et un agent virtuel, au regard des capacités de celui-ci. Nous avons ainsi proposé une solution innovante en considérant ces objets dynamiques, à la fois comme des obstacles, mais également comme des éléments navigables qu'un agent pourra utiliser au cours de sa navigation. Nous avons également défini une structure de représentation et de suivi dynamique de la topologie. Cette structure permet de déterminer, sans connaissance a priori, les propriétés temporelles des accessibilités et des obstructions présentes dans l'environnement. Cela permet de construire une vision d'ensemble de la topologie temporelle de l'environnement. Nous proposons enfin un algorithme de planification de chemin, utilisant l'ensemble des informations temporelles issues de l'environnement, afin de proposer une solution de navigation à l'agent au sein de cet environnement virtuel. Notre méthode, à l'issue de cette thèse, permet ainsi à un agent navigant d'identifier de manière autonome un chemin au sein d'un environnement dynamique composé d'éléments navigables déconnectés à la fois dans le temps et dans l'espace. De plus, afin de répondre aux contraintes temporelles de nombreux domaines, nous proposons une solution performante et compatible avec des applications interactives.
23

Yousfi, Fouad. "Placo : modélisation par workflow et conception d'un système de planification coopérative : application aux unités de soins." Lille 1, 1996. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1996/50376-1996-111.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Bien que l'ordinateur soit a present banal sur les lieux de travail, sa presence n'a guere modifie les relations et les contacts entre individus. Mais les technologies de l'informatique et de la communication continuent a converger et cette evolution favorise, d'une part, les collaborations entre individus, et d'autre part, la coordination des taches qu'ils executent au sein d'un veritable espace de travail electronique. Les recherches afferentes ont fait emerger un nouveau domaine scientifique appele computer-supported cooperative work (cscw) ou le travail cooperatif assiste par ordinateur (tcao). Ce domaine est vraisemblablement le plus vaste et le plus complexe qui soit du fait qu'il marie plusieurs disciplines telles que l'informatique, la psychologie, la sociologie, les sciences cognitives, l'expertise (en medecine, en education et enseignement,), etc. Les logiciels issus de ces recherches sont communement appeles groupware, ou encore collecticiels. Comme les utilisateurs d'une certaine categorie de groupware sont repartis dans l'espace et le temps, il est naturel de concevoir des systemes qui soient des systemes distribues, mettant en valeur la decentralisation des donnees et du controle. Il faut egalement considerer les groupware sous l'angle de la coordination afin que les interactions, ainsi rendues possibles, deviennent aussi efficaces que les echanges face a face, evitant tout a la fois les ruptures dans les processus de conversation (breakdowns) et les conflits. L'objectif de cette these consiste en l'etude d'architectures logicielles qui permettent la coordination des taches dans un environnement distribue. La modelisation des processus de conversation s'est appuyee sur la theorie du workflow de winograd & flores. L'accent est mis sur la coordination de taches impliquant de nombreux agents differents. Le partage des taches induit souvent des conflits entre participants. La recherche est particulierement orientee dans cet aspect resolution et prevention de conflits. Nous proposons a titre d'exemple, d'appliquer notre recherche a la coordination des taches dans les unites de soins intensifs et de reanimation ou la cohesion du travail doit etre primordiale entre medecins et infirmieres. Les defauts de coordination sont ici a l'origine de breakdowns qui peuvent etre prejudiciables au fonctionnement de l'unite medicale comme a la prise en charge des malades. Lesdits breakdowns proviennent essentiellement des mauvaises interactions entre participants.
24

Brown, Richard. "Microbrachytherapy treatment planning." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30180/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une nouvelle modalité de radiothérapie, la micro-curiethérapie, est en cours de développement. Cette thérapie cible des tumeurs solides inopérables en effectuant des injections de liquide contenant des microsphères radioactives en suspension. Plusieurs injections sont nécessaires pour suffisamment irradier la zone tumorale et donc, afin d'optimiser le positionnement de ces injections, une méthode de planification de traitement nécessaire a été développée et validée au cours de cette thèse. Tout au long de ce travail, trois thèmes principaux seront discutés : • Comment réaliser la dosimétrie particulière de cette micro-curiethérapie ? • Comment effectuer la planification de traitement pour cette modalité ? • Comment optimiser le plan de traitement afin qu'il soit le plus efficace possible ? La dosimétrie en micro-curiethérapie a été réalisée en calculant la distribution de dose absorbée pour une injection. Cette distribution a été convoluée à la position des autres injections dans la tumeur pour calculer la distribution de dose absorbée dans le patient. Pour effectuer la dosimétrie spécifique dans la tumeur et les organes à risque, les histogrammes dose-volume (HDV) ont été extraits et analysés. Une fois la méthode de dosimétrie établie, nous avons développé une méthodologie de planification de traitement pour développer et optimiser le plan pour chaque patient. Pour cela, nous avons testé et comparé trois algorithmes : la méthode de Nelder-Mead, l'algorithme des abeilles et l'algorithme "Non-Dominated Sorting Genetic Algorithm II" (NSGA II). Nous avons montré que, grâce à l'optimisation multiobjectif, le NSGA II donne plus de liberté à l'utilisateur ; c'est pourquoi il a été utilisé par la suite. Enfin, nous avons effectué une comparaison entre les paramètres d'injection. Nous avons mis en évidence qu'entre les radio-isotopes 90Y, 166Ho, 131I and 177Lu, les injections de 90Y sont optimales. Nous avons testé des injections de 5, 10 et 20 µL et des activités initiales de 5, 10 et 20 MBq. Nous avons trouvé que des injections de 20 µL avec 20 MBq sont optimales car celles-ci permettent de minimiser le nombre d'injections requis. Cette nouvelle technologie associée aux développements réalisés dans ses travaux démontre la faisabilité, qui a pu être validée sur animal, de pouvoir injecter un liquide contenant des microsphères radioactives en suspension afin de pouvoir traiter efficacement, tout en préservant les tissus sains environnants, des tumeurs inopérables encore de mauvais pronostic aujourd'hui, mais surement mieux prises en charge dans un proche avenir
An innovative form of radiotherapy, microbrachytherapy, is under development. This therapy targets solid, inoperable tumours by performing injections of liquid containing radioactive microspheres in suspension. Many injections are required to sufficiently cover the tumoural volume, and so to be able to deliver the position of these injections, a method of treatment planning has been developed and validated throughout this research. Throughout this work, three main questions are addressed: • How to perform the dosimetry for microbrachytherapy? • How to perform treatment planning for this modality? • What are the optimal injection properties to deliver the most efficient treatment? Microbrachytherapy dosimetry was performed by calculating the absorbed dose distribution for an injection. This distribution was then convolved at each injection position within the tumour to calculate the patient's absorbed dose distribution. Dosimetry of the tumour and the organs at risk was performed by extracting and analysing dose-volume histograms (DVHs). Once a method of dosimetry was put in place, optimisation algorithms were developed to generate patient-specific treatment plans. For this, three algorithms were tested and compared: Nelder-Mead Simplex, the Bees algorithm and the non-dominated sorting genetic algorithm II. It was found that, thanks to its MO optimisation, the non-dominated sorting algorithm II was the most flexible, and was used preferentially. Lastly, a comparison of injection parameters was performed. It was found that between 90Y, 166Ho, 131I and 177Lu, optimal injections consisted of microspheres of 90Y. Injection volumes of 5, 10 and 20 µL and initial activities of 5, 10 and 20 MBq were tested. It was found that 20 µL injections with 20 MBq were optimal because they minimise the number of injections required. This new technology combined with developments shown in this work demonstrate the feasibility - that was validated on animals - the ability to inject liquid containing radioactive microspheres in suspension to efficiently treat inoperable tumours whilst protecting surrounding healthy tissue. Such tumours, despite still having a poor prognosis, will surely have better support in the near future
25

Belhaoua, Abdelkrim. "Planification et automatisation d’une reconstruction 3D par stéréovision : prise en compte des incertitudes et optimisation de l’illumination." Strasbourg, 2011. https://publication-theses.unistra.fr/public/theses_doctorat/2011/BELHAOUA_Abdelkrim_2011.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'automatisation de la numérisation est une étape indispensable au développement de la mesure tridimensionnelle dans différents domaines d'applications, comme par exemple l'évaluation d'objets manufacturés. Le but de ce travail de thèse est d'évaluer la conformité d'objets 3D manufacturés en tenant compte des tolérances géométriques et des incertitudes liées à différentes sources d'erreur. La reconstruction 3D est réalisée à partir d'un capteur stéréoscopique. La qualité de la reconstruction 3D peut être affectée de manière significative par les propriétés d'illumination. Par conséquent, la détermination de paramètres favorables d'illumination est un problème crucial que nous tentons de résoudre en optimisant le placement des sources d'illumination. La quantification des erreurs 3D de mesure fait aussi l'objet de cette thèse. L'estimation des erreurs 3D nous permet d'évaluer la qualité de reconstruction 3D et par conséquent d'augmenter les performances de notre système de mesure 3D. Un système d'évaluation dimensionnelle a été développé dans notre laboratoire. Ce système est composé de deux modules : le premier utilise les graphes de situations qui permettent l'automatisation et la gestion des différentes procédures de la reconstruction 3D. Le deuxième module, appelé HTP (Hierarchical Task Plan) se charge du contrôle de la séquence d'acquisitions ainsi que de la reconstruction 3D complète de l'objet et de son évaluation dimensionnelle. Tous les algorithmes développés ont été validés et intégrés dans ce système entièrement opérationnel, y compris un mécanisme de replanification dynamique permettant de s'adapter automatiquement aux conditions réelles d'acquisition
Automation of the digitization process is an essential step for the development of three-dimensional measurement in different application areas, such as the evaluation of manufactured objects. The aim of this thesis is to assess the conformity of 3D manufactured objects taking into account the geometric tolerances and uncertainties related to various sources of error. 3D reconstruction is performed using a stereoscopic sensor. The quality of the 3D reconstruction can be significantly affected by the illumination properties. Therefore, the determination of favorable illumination parameters is a crucial problem that we have tried to solve by optimizing the placement of illumination sources. The quantification of the 3D error measurements is also the purpose of this thesis. The estimation of 3D errors allows us to assess the 3D reconstruction quality and thus to increase the performance of the 3D errors. A dimensional evaluation system based on computer vision has been developed in our laboratory. This system consists of two modules: the first one uses Situation Graph Trees that enable automation and management of the different procedures leading to the 3D reconstruction. The second module, called HTP (Hierarchical Task Plan) is in charge of the control of monitoring the acquisition sequence and of the full 3D reconstruction of the object and its dimensional evaluation. All algorithms developed within the framework of this dissertation have been validated and integrated into this fully operational system, including a mechanism for dynamic replanning enabling to adapt automatically the system to the actual acquisition conditions
26

Valdenaire, Simon. "Mise en place et utilisation des faisceaux FFF en radiothérapie : radiobiologie, caractérisation physique, contrôles qualité, modélisation et planification de traitement." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0037/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les faisceaux de photons produits par les accélérateurs d'électrons linéaires médicaux sont plats, grâce à un cône égalisateur. Les technologies ont évolué et la présence d'un cône n'est plus indispensable. On parle alors de faisceaux FFF (flattening filter free). Les faisceaux FFF présentent des débits de dose plus élevés, des profils de dose hétérogènes, des spectres énergétiques différents et une diminution de la dose hors-champ. Cette thèse a eu pour but d'étudier les caractéristiques des faisceaux FFF, ainsi que l'impact de leur utilisation thérapeutique. Plusieurs thématiques ont été. Des expériences d'irradiation in vitro ont tout d'abord permis de s'assurer que les débits de dose FFF n'ont pas d'impact radiobiologique sur la réponse des cellules irradiées. Une large revue de la littérature a permis de corroborer ces résultats. Afin de maitriser les caractéristiques physiques des faisceaux FFF, des mesures ont été faites avec différents détecteurs. Les effets du spectre et du débit de dose sur la calibration en dose ont aussi été étudiés. Les faisceaux FFF ont été modélisés dans deux TPS. Les modèles ont été comparés entre les deux types de faisceaux et entre les deux TPS. La mise en place des traitements stéréotaxiques a aussi été l'occasion d'appréhender la dosimétrie des petits faisceaux. Nous avons étudié des cas VMAT de cancer de la prostate et des cas de stéréotaxies 3D de tumeurs pulmonaires. La comparaison donne un avantage aux faisceaux FFF. La maitrise de la physique et de la biologie des haut débits a permis de débuter les traitements FFF à l'IPC. Des études comparatives nous permettent aujourd'hui d'adapter leur utilisation au cas par cas
In medical linear electron accelerators, photon beams profiles are homogenised using flattening filters. Technologies have evolved and the presence of this filter is no longer necessary. Flattening filter free (FFF) beams exhibit higher dose rates, heterogeneous dose profiles, modified energy spectra and lower out-of-field dose. This PhD aimed at studying the characteristics of unflattened beams, as well as their impact in clinical utilization. Several subjects were thoroughly investigated: radiobiology, dosimetry, quality controls, modelling and treatment planning. In vitro experiments ensured that the high dose-rate of FFF beams had not a radiobiological impact. A wide review of the literature was conducted to corroborate these results. In order to understand thoroughly the characteristics of FFF beams, measurements were conducted using several detectors. The effect of the spectra and dose rates of unflattened beams on dose calibration were also studied. FFF beams were modeled in two TPSs. The methods, results and model parameters have been compared between the available beam qualities as well as between both TPSs. Furthermore, the implementation of stereotactic treatments technique was the occasion to investigate small beam dosimetry. Prostate cancer cases treated with VMAT and pulmonary tumors treated with stereotactic 3D beams were also studied. The comparison of dose distributions and treatment metrics give advantage to FFF beams. Mastering physical and biological aspects of flattening filter free beams allowed the IPC to start FFF treatments. Comparative studies have since resulted in a deeper understanding on the pertinent use of these beams
27

Reuzé, Sylvain. "Extraction et analyse de biomarqueurs issus des imageries TEP et IRM pour l'amélioration de la planification de traitement en radiothérapie." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS341/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au-delà des techniques conventionnelles de diagnostic et de suivi du cancer, l’analyse radiomique a pour objectif de permettre une médecine plus personnalisée dans le domaine de la radiothérapie, en proposant une caractérisation non invasive de l’hétérogénéité tumorale. Basée sur l’extraction de paramètres quantitatifs avancés (histogrammes des intensités, texture, forme) issus de l’imagerie multimodale, cette technique a notamment prouvé son intérêt pour définir des signatures prédictives de la réponse aux traitements. Dans le cadre de cette thèse, des signatures de la récidive des cancers du col utérin ont notamment été développées, à partir de l’analyse radiomique seule ou en combinaison avec des biomarqueurs conventionnels, apportant des perspectives majeures dans la stratification des patients pouvant aboutir à une adaptation spécifique de la dosimétrie.En parallèle de ces études cliniques, différentes barrières méthodologiques ont été soulevées, notamment liées à la grande variabilité des protocoles et technologies d’acquisition des images, qui entraîne un biais majeur dans les études radiomiques multicentriques. Ces biais ont été évalués grâce à des images de fantômes et des images multicentriques de patients pour l’imagerie TEP, et deux méthodes de correction de l’effet de stratification ont été proposées. En IRM, une méthode de standardisation des images par harmonisation des histogrammes a été évaluée dans les tumeurs cérébrales.Pour aller plus loin dans la caractérisation de l’hétérogénéité intra-tumorale et permettre la mise en œuvre d’une radiothérapie personnalisée, une méthode d’analyse locale de la texture a été développée. Adaptée particulièrement aux images IRM de tumeurs cérébrales, ses capacités à différencier des sous-régions de radionécrose ou de récidive tumorale ont été évaluées. Dans ce but, les cartes paramétriques d’hétérogénéité ont été proposées à des experts comme des séquences IRM additionnelles.À l’issue de ce travail, une validation dans des centres extérieurs des modèles développés, ainsi que la mise en place d’essais cliniques intégrant ces méthodes pour personnaliser les traitements seront des étapes majeures dans l’intégration de l’analyse radiomique en routine clinique
Beyond the conventional techniques of diagnosis and follow-up of cancer, radiomic analysis allows to personalize radiotherapy treatments, by proposing a non-invasive characterization of tumor heterogeneity. Based on the extraction of advanced quantitative parameters (histograms of intensities, texture, shape) from multimodal imaging, this technique has notably proved its interest in determining predictive signatures of treatment response. During this thesis, signatures of cervical cancer recurrence have been developed, based on radiomic analysis alone or in combination with conventional biomarkers, providing major perspectives in the stratification of patients that can lead to dosimetric treatment plan adaptation.However, various methodological barriers were raised, notably related to the great variability of the protocols and technologies of image acquisition, which leads to major biases in multicentric radiomic studies. These biases were assessed using phantom acquisitions and multicenter patient images for PET imaging, and two methods enabling a correction of the stratification effect were proposed. In MRI, a method of standardization of images by harmonization of histograms has been evaluated in brain tumors.To go further in the characterization of intra-tumor heterogeneity and to allow the implementation of a personalized radiotherapy, a method for local texture analysis has been developed. Specifically adapted to brain MRI, its ability to differentiate sub-regions of radionecrosis or tumor recurrence was evaluated. For this purpose, parametric heterogeneity maps have been proposed to experts as additional MRI sequences.In the future, validation of the predictive models in external centers, as well as the establishment of clinical trials integrating these methods to personalize radiotherapy treatments, will be mandatory steps for the integration of radiomic in the clinical routine
28

Cauhapé, Damien. "Modélisation et traitement des connaissances sur le temps et les tâches médicales pour les systèmes experts en cancérologie." Bordeaux 1, 1991. http://www.theses.fr/1991BOR10534.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette these fournit des modeles formels pour la representation des connaissances dans le domaine medical sur deux points cruciaux: 1) les activites medicales de diagnostic, traitement et autres taches. 2) l'expression du temps dans les requetes adressees, via un systeme expert, a une base de donnees temporelles. Ces modeles debouchent sur la conception de systemes generaux de raisonnement temporel et de gestion de taches generiques
29

St-Amand, Pascale. "Attention, planification exécutive et problèmes d'apprentissage chez une population d'enfants nés très prématurés." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23736/23736.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Gerardy, Isabelle Yvonne Joséphine. "Evaluation d'un système de planification pour un traitement de brachythérapie gynécologique en utilisant des techniques Monte Carlo et des mesures expérimentales." Doctoral thesis, Universitat Politècnica de València, 2012. http://hdl.handle.net/10251/14272.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La braquiterapia es una técnica por la cual se introducen en el cuerpo fuentes radiactivas encapsuladas, situándolas cerca de los tumores por medio de aplicadores. Esta técnica permite impartir la dosis requerida al tumor evitando todo lo posible dañar los tejidos sanos. Con el fin de poder realizar lo mejor posible la planificación del tratamiento, es muy importante conocer tan precisamente como sea posible la distribución de dosis no sólo alrededor de la fuente sino también del aplicador. En la tesis, se ha utilizado una fuente de Ir-192 tipo Microselectron de la empresa Nucletron con un aplicador ginecológico constituido por un tubo intrauterino de acero inoxidable y dos cilindros vaginales de polímeros. Se ha realizado, mediante cálculos y medidas, un estudio de la distribución de dosis alrededor del aplicador. Las medidas se han realizado utilizando una cámara de ionización tipo Wellhöfer CC04 así como películas radiocrómicas tipo Gafchromic © EBT. Las películas permiten obtener isodosis y la cámara de ionización se ha utilizado para obtener dosis en profundidad. Para asegurar un buen posicionamiento de los sistemas de medida y de la fuente, se ha fabricado un maniquí de plexiglás. Los cálculos de distribución de dosis se han realizado utilizando el software de planificación de tratamiento (TPS) PLATO v14.3 así como el programa MCNP5 basado en el método Monte Carlo, para lo cual se ha desarrollado un modelo del conjunto fuente, aplicador y maniquí. Los TPS no tienen en cuenta la atenuación en los materiales que constituyen el aplicador; por lo que es importante conocer la influencia de este efecto sobre el cálculo de la dosis. La comparación de cálculos y medidas, pone de manifiesto que el efecto de blindaje a causa del tubo intrauterino no es significativo, excepto en el campo próximo al tubo, a menos de un centímetro de éste. Las películas Gafchromic © EBT y la cámara de ionización Wellhöfer CC04, utilizados durante la tesis, han permitido realizar medidas dede distribución de dosis y también de dosis absoluta, que han llevado a la validación de la simulación realizada con MCNP5 en ciertas situaciones geométricas simples. El programa MCNP5 es una herramienta muy potente para el estudio de las distribuciones de dosis en braquiterapia, particularmente para situaciones donde una dosimetría experimental resulta imposible, por ejemplo en contacto con el tubo intrauterino o en zonas muy próximas a éste. Para distancias superiores a 1 cm de la fuente, los resultados de la estimación de dosis realizada por el sistema PLATOv14.3 muestran un buen acuerdo con las medidas y los cálculos realizados. Finalmente, se ha realizado un análisis completo de las incertidumbres relativas a la utilización del programa de cálculo MCNP5. Se ha estudiado para ello el efecto de los diferentes elementos relacionados con el modelo desarrollado, pero también con el propio programa. Es necesario indicar que una evaluación de la incertidumbre global es esencial en el caso de comparación con otros sistemas de cálculo o con las medidas efectivas.
Gerardy, IYJ. (2011). Evaluation d'un système de planification pour un traitement de brachythérapie gynécologique en utilisant des techniques Monte Carlo et des mesures expérimentales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/14272
Palancia
31

Madakat, D. "Approches multicritères pour le traitement des débris spatiaux." Phd thesis, Université Paris Dauphine - Paris IX, 2014. http://tel.archives-ouvertes.fr/tel-01059180.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les débris spatiaux constituent une menace pour l'exploration et l'exploitation de l'espace. Leur nombre ne cesse d'augmenter et continuera à grandir même si on arrête toute activité spatiale, augmentant ainsi la probabilité d'entrer en collision avec un satellite actif. Le retrait des débris s'avère le seul moyen de protéger ces satellites. Le nombre des débris spatiaux étant très élevé, il convient préalablement de repérer les plus dangereux. Dans la première partie de la thèse, nous avons élaboré une approche multicritère afin de classer les débris selon leur degré de priorité d'enlèvement. Les débris de la classe la plus prioritaire, feront l'objet d'une mission spatiale de retrait de débris. La planification d'une telle mission est étudiée dans la deuxième partie de la thèse. Elle doit être réalisée en minimisant deux critères : le coût de la mission ainsi que la durée nécessaire pour traiter tous les débris. La navette se déplace d'une orbite à une autre, traite les débris un par un puis retourne à son orbite initiale. Etant donné que le transfert entre deux orbites de débris peut être effectué de multiples façons, chacune correspondant à un compromis possible entre la durée et le coût de transfert, et que ces coûts et durées dépendent des moments de départ et d'arrivée sur les orbites, l'ensemble des solutions réalisables est défini sur un multigraphe dynamique orienté. Un tour dans un tel graphe définit un scénario de mission possible. Il s'agit de trouver l'ensemble des tours non dominés dans un tel multigraphe. Ceci revient à résoudre un problème de voyageur de commerce biobjectif et dépendant du temps. Nous avons développé un algorithme basé sur la technique de séparation et évaluation pour restituer l'ensemble de ces tours. L'optimisation de l'algorithme est faite sur deux niveaux : - On limite le nombre des transferts possibles entre deux orbites en évitant de calculer le coût pour les transferts qui s'avéreraient dominés. - Des règles de dominance sont utilisées pour couper certaines branches de l'arborescence de recherche qui ne mèneront pas à des solutions efficaces. Des résultats expérimentaux illustrent l'efficacité de la procédure.
32

Bucari, Miriam Claudia. "Le traitement des enfants handicapés mentaux dans le système scolaire argentin." Bordeaux 2, 1991. http://www.theses.fr/1991BOR21001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Avec la scolarité de masses, est née en Argentine la nécessité de création d'un autre type de structures adaptées aux enfants qui ne pouvaient pas suivre le déroulement de la classe. Du discours médical du début du siècle, on va passer, à la fin des années 60, à la constatation d'un handicap franchissable à travers un dépistage et une orientation rationnelle. Un peu plus tard, les recherches argentines ont démontré l'influence du milieu social dans le développement des enfants, et l'effet de l'isolement éducatif des secteurs ruraux, dans un pays d'une extension d’à peu près cinq fois la France. Il s'avère que l'éducation spéciale est développée principalement dans les centres urbains. Les débouchés professionnels des jeunes handicapés est pratiquement impossible à établir, raison pour laquelle nous l'appelons "éducation à court terme". On peut ajouter la lenteur du secteur public et le poids des associations bénévoles, spécialement dans la capitale. La province de Buenos aires bénéficie d'un système plus complet d'éducation spéciale, mais celle-ci reste tributaire des idéologies prédominantes, et souvent on trouve un décalage entre les déclarations d'intention et les propos exécutés
Together with the introduction of the education of the mases, the need appeared in Argentina to create an alternative structure, adapted to those children who were unable to follow the normal lessons. Starting with a pure medical viewpoint at the beginning of this century, the handicap is in the sixties recognized to be surmountable with an early identification and a rational orientation. Later, research carried out in Argentina has proved the influence which the social environment has on the development of children as well as the effect of the educational isolation of the rural regions in a nation with a surface of approximately five times that of France. It appears that the special education is mainly developed in the urban areas. Practically no professional openings can be found for the young handicapped. This is the reason why we have denominated it a "short term education". Also, the slow acting public sector must be considered as well as the importance to the benevolent associations, especially in the capital. The province of Buenos Aires has the advantage of a more complete special education system which, however, is linked to some predominant ideologies
33

Vautrin, Mathias. "Planification de traitement en radiothérapie stéréotaxique par rayonnement synchrotron. Développement et validation d'un module de calcul de dose par simulations Monte Carlo." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00641325.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La radiothérapie stéréotaxique par rayonnement synchrotron (SSRT) est une technique innovanteutilisant un faisceau synchrotron de rayons X monochromatiques entre 50 et 100 keV. Une augmentationde dose par prise de contraste est obtenue localement par effet photoélectrique sur unélément lourd injecté dans le volume cible (tumeur cérébrale). Des essais cliniques de SSRT sont encours de préparation à l'ESRF (établissement européen de rayonnement synchrotron). Un systèmede planification de traitement (TPS) est nécessaire pour le calcul de l'énergie déposée au patient(dose) pendant le traitement. Une version dédiée du TPS ISOgray a donc été développée. Ce travaildécrit l'adaptation du TPS réalisée, particulièrement au niveau du module de simulation virtuelleet de dosimétrie. Pour un calcul de dose, le TPS utilise une simulation Monte Carlo spécifique desphotons polarisés et de basse énergie. Les simulations sont réalisées depuis la source synchrotron,à travers toute la géométrie de la ligne de lumière modélisée et dans le patient. Pour ce calcul, desmatériaux spécifiques ont été notamment ajoutés pour la modélisation voxélisée du patient, afin deprendre en compte la présence d'iode dans certains tissus. Le processus de calcul Monte Carlo a étéoptimisé en vitesse et précision. De plus, un calcul des doses absolues et des temps d'irradiation,particulier à la SSRT, a été ajouté au TPS. Grâce à des mesures de rendements, profils de dose, etdoses absolues, réalisées à l'ESRF en cuve à eau et en fantôme solide avec ou sans couche d'os, lecalcul de dose du TPS a été validé pour la SSRT.
34

LECLERE, PASCAL. "Les polygones de voronoi en traitement d'images : application a la fusion de donnees, et a la planification de trajectoires en architecture parallele." Reims, 1996. http://www.theses.fr/1996REIMS019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis toujours, la geometrie a apporte des solutions a de nombreux problemes d'imagerie. Dans ce memoire, nous presentons un outil particulier appele diagramme de voronoi qui permet de decrire et de manipuler des entites geometriques et donne acces a des informations de proximite entre points ou objets plus complexes. Les differentes possibilites offertes par les polygones de voronoi sont explorees a travers deux problemes de traitement d'images differents. La premiere application effectue une fusion de donnees entre deux images de radiometries differentes. Les informations de type morphometrique issues de la decomposition par les polygones permettent d'effectuer le recalage des deux images et le passage des informations d'une scene a l'autre. La seconde application effectue la planification de trajectoires d'un robot mobile. Les trajectoires sont obtenues a partir du diagramme de voronoi generalise base sur les lignes polygonales de l'ensemble de segments correspondant aux frontieres des obstacles. L'implantation de l'algorithme sur une architecture parallele permet de reduire le temps de calcul qui est le principal inconvenient de ce type de planification
35

Ben, Daya Bechir. "Planification soutenable des investissements bioénergétiques : intégration des bioraffineries aux pâtes et papiers." Doctoral thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/30335.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le secteur canadien des pâtes et papiers (P&P) a joué un rôle socioéconomique majeur durant les deux derniers siècles. Ces compagnies, en plus de l’avantage de leur positionnement géographique, ont accumulé une expérience confirmée en matière d’industrie forestière, dont notamment le traitement de la biomasse ligneuse. Au cours des trois dernières décennies, ces entités ont encouru des contraintes environnementales difficiles, auxquelles vient s’ajouter une crise chronique du marché. Cette dernière crise a eu des retombées sans précédent sur le côté social, ce qui a amené à qualifier le contexte difficile du secteur comme une crise de soutenabilité. Au cours de la dernière décennie, l’industrie de l’énergie verte est devenue une composante basique des stratégies de transition énergétique pour les pays développés. La biomasse a toujours été au coeur de cette stratégie pour le Canada. Pour les P&P, cette orientation constitue une opportunité pour résoudre la crise environnementale et économique accrue du secteur. Les preneurs de décision ont besoin d’une feuille de route pour transformer les usines de P&P en Bioraffinerie Forestière Intégrée (BRFI). Le choix des technologies, le dimensionnement de la capacité de production et le choix des voies d’investissement bioénergétique constituent des préoccupations majeures pour les preneurs de décision. Toutefois l’évaluation de la soutenabilité de cette transformation demeure un défi de taille. Notre contribution vise à développer des approches et des outils d’aide à la décision pour supporter une transformation efficace, robuste et durable de l’industrie des P&P au Canada. L'objectif est d’évaluer la soutenabilité de l’intégration des BRFI et de communiquer un nouveau modèle d’affaires aux preneurs de décision, tout en renforçant leur capacité de négocier une politique incitative propice en matière des investissements bioénergétiques dans le cadre du partenariat public-privé. La méthodologie utilisée pour atteindre cet objectif se place à l'intersection de l'aide à la décision, de l'optimisation mathématique et de l'analyse financière et économique. Notre première contribution propose la conception et l’application d’une méthode d’évaluation de la soutenabilité intégrant l’approche cycle de vie à l'optimisation du réseau de création de valeur dans le cadre d’un modèle mathématique multiobjectif. Ce dernier modèle fournira une feuille de route pour les investissements soutenables en bioénergie, minimisant les émissions de Gaz à Effet de Serre (GES) et maximisant la valeur financière de la bioraffinerie sur un horizon de planification à long terme tout en assurant une gestion optimale de l’activité incubatrice. Au niveau de la deuxième contribution, nous présentons une analyse de sensibilité du modèle mathématique proposé selon des scénarios plausibles, et ce, avec l’élaboration d’un canevas pour bien communiquer le modèle aux preneurs de décision. Le but de cette partie est d'évaluer la robustesse du modèle, de bien communiquer aux parties prenantes les implications des choix d'investissement dans la production de bioénergie dans un environnement incertain et d’identifier les perspectives pour améliorer l'efficacité du modèle proposé. Dans la troisième contribution, nous proposons une analyse fiscale approfondie des modes de dépréciations dérogatoires appliqués aux investissements en bioénergie. Cette analyse traite l’impact des types d’amortissements dérogatoires sur le choix d’investissement bioénergétique et sur la soutenabilité. Notre objectif est de fournir aux preneurs de décision un ensemble d’outils d’aide à la décision tout en renforçant leur pouvoir de négocier une politique fiscale favorable à l’investissement bioénergétique. Dans cette partie, on a mis en évidence le fait que le choix de l’investissement couplé avec le choix de sa façon de dépréciation offre à l’investisseur une visibilité plus complète sur les conséquences pratiques de l’investissement dans le domaine bioénergétique en connivence avec la législation fiscale en vigueur. Ce qui conforte le partenariat public-privé et détermine le niveau d’interventionnisme public dans la réussite des transformations escomptées du secteur de P&P. L’analyse d’impacts sociaux et les approches de programmation stochastique pour l’étude de robustesse n’ont pas été abordées par ce travail, elles ont été présentées comme perspectives de recherche.
The Canadian pulp and paper sector has played a major socio-economic role in the last two centuries. In addition to the advantage of their geographical position, P&P companies have accumulated proven experience in the forest industry, including the treatment of wood biomass. Over the last three decades, these entities have faced difficult environmental constraints, compounded by a chronic market crisis. This latest crisis has had unprecedented social consequences leading to a crisis of sustainability. Over the last decade, the green energy industry has become a basic component of the energy transition strategies for developed countries. Biomass has always been at the heart of such a strategy for Canada. For the P&P, this orientation is an opportunity to solve the growing environmental and economic crisis of the sector. Decision-makers need a road map to transform P&P's factories into an Integrated Forest Biorefinery (IFBR). The choice of technologies, the sizing of production capacity and the choice of bioenergy investment are major concerns for decision-makers. However, assessing the sustainability of this transformation remains a major challenge. Our contribution is focused on developing decision support approaches and tools to support an effective, robust and sustainable transformation of Canada's P&P industry. The objective is to assess the sustainability of the IFBR integration and to present a new business model to decision-makers, which can strengthen their ability to negotiate a favorable incentive policy for bioenergy investments within the framework of the public-private partnership. To achieve this goal, our methodology combines decision support tools, mathematical optimization models, along with financial and economic analysis. Our first contribution proposes the design and application of a sustainability evaluation method integrating the life cycle approach and the optimization of the value creation network as part of a multi-objective mathematical model. The proposed model provides a roadmap for sustainable bioenergy investments, minimizing GHG emissions and maximizing the financial value of the biorefinery over a long-term planning horizon while ensuring optimal management of the incubator activity. In the second contribution, we present a sensitivity analysis of the proposed mathematical model according to well selected scenarios, with the development of a framework for communicating the model to the decision-makers. The purpose of this analysis is to assess the robustness of the model, to communicate to stakeholders the implications of investment choices in bioenergy production in an uncertain environment, and to identify opportunities for improving the effectiveness of the proposed model. In the third contribution, we propose an in-depth tax analysis using accelerated depreciation methods applied to investments in bioenergy. This analysis deals with the impact of the types of depreciations on the choice of bioenergy investment and on sustainability. Our goal is to provide decision makers with a set of decision support tools while strengthening their power to negotiate a tax policy favorable to bioenergy investment. In this part, it was highlighted that the choice of the investment coupled with the choice of its depreciation way offers the investor a more complete visibility on the practical consequences of the investment in the bioenergetics field with respect to prevalent tax legislation. This reinforces the public-private partnership and determines the level of public interventionism needed for the success of the expected transformation of the P&P sector. The social impact analysis and stochastic programming approaches for the robust study were not addressed by this work, they were presented as research perspectives.
36

Pastorelli, Mario. "Disciplines basées sur la taille pour la planification des jobs dans data-intensif scalable computing systems." Electronic Thesis or Diss., Paris, ENST, 2014. http://www.theses.fr/2014ENST0048.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La dernière décennie a vu l’émergence de systèmes parallèles pour l’analyse de grosse quantités de données (DISC) , tels que Hadoop, et la demande qui en résulte pour les politiques de gestion des ressources, pouvant fournir des temps de réponse rapides ainsi qu’équité. Actuellement, les schedulers pour les systèmes de DISC sont axées sur l’équité, sans optimiser les temps de réponse. Les meilleures pratiques pour surmonter ce problème comprennent une intervention manuelle et une politique de planification ad-hoc , qui est sujette aux erreurs et qui est difficile à adapter aux changements. Dans cette thèse, nous nous concentrons sur la planification basée sur la taille pour les systèmes DISC. La principale contribution de ce travail est le scheduler dit Hadoop Fair Sojourn Protocol (HFSP), un ordonnanceur préemptif basé sur la taille qui tient en considération le vieillissement, ayant comme objectifs de fournir l’équité et des temps de réponse réduits. Hélas, dans les systèmes DISC, les tailles des job d’analyse de données ne sont pas connus a priori, donc, HFSP comprends un module d’estimation de taille, qui calcule une approximation et qui affine cette estimation au fur et a mesure du progrès d’un job. Nous démontrons que l’impact des erreurs d’estimation sur les politiques fondées sur la taille n’est pas significatif. Pour cette raison, et en vertu d’être conçu autour de l’idée de travailler avec des tailles estimées, HFSP est tolérant aux erreurs d’estimation de la taille des jobs. Nos résultats expérimentaux démontrent que, dans un véritable déploiement Hadoop avec des charges de travail réalistes, HFSP est plus performant que les politiques de scheduling existantes, a la fois en terme de temps de réponse et d’équité. En outre, HFSP maintiens ses bonnes performances même lorsque le cluster de calcul est lourdement chargé, car il focalises les ressources sur des jobs ayant priorité. HFSP est une politique préventive: la préemption dans un système DISC peut être mis en œuvre avec des techniques différentes. Les approches actuellement disponibles dans Hadoop ont des lacunes qui ont une incidence sur les performances du système. Par conséquence, nous avons mis en œuvre une nouvelle technique de préemption, appelé suspension, qui exploite le système d’exploitation pour effectuer la préemption d’une manière qui garantie une faible latence sans pénaliser l’avancement des jobs a faible priorité
The past decade have seen the rise of data-intensive scalable computing (DISC) systems, such as Hadoop, and the consequent demand for scheduling policies to manage their resources, so that they can provide quick response times as well as fairness. Schedulers for DISC systems are usually focused on the fairness, without optimizing the response times. The best practices to overcome this problem include a manual and ad-hoc control of the scheduling policy, which is error-prone and difficult to adapt to changes. In this thesis we focus on size-based scheduling for DISC systems. The main contribution of this work is the Hadoop Fair Sojourn Protocol (HFSP) scheduler, a size-based preemptive scheduler with aging; it provides fairness and achieves reduced response times thanks to its size-based nature. In DISC systems, job sizes are not known a-priori: therefore, HFSP includes a job size estimation module, which computes approximated job sizes and refines these estimations as jobs progress. We show that the impact of estimation errors on the size-based policies is not signifi- cant, under conditions which are verified in a system such as Hadoop. Because of this, and by virtue of being designed around the idea of working with estimated sizes, HFSP is largely tolerant to job size estimation errors. Our experimental results show that, in a real Hadoop deployment and with realistic workloads, HFSP performs better than the built-in scheduling policies, achieving both fairness and small mean response time. Moreover, HFSP maintains its good performance even when the cluster is heavily loaded, by focusing the resources to few selected jobs with the smallest size. HFSP is a preemptive policy: preemption in a DISC system can be implemented with different techniques. Approaches currently available in Hadoop have shortcomings that impact on the system performance. Therefore, we have implemented a new preemption technique, called suspension, that exploits the operating system primitives to implement preemption in a way that guarantees low latency without penalizing low-priority jobs
37

Poulin, Éric. "Conception et validation d'un système pour la planification et le guidage en temps réel des traitements de curiethérapie à haut débit de dose du sein." Doctoral thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/26351.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur le développement et la validation d’outils afin d’améliorer l’efficacité des traitements de curiethérapie à haut débit de dose (HDR) du sein. Le but du projet vise donc à concevoir et valider un nouveau système de planification et de guidage en temps réel des traitements de curiethérapie HDR du sein, basé principalement sur l’échographie 3D (3DUS). Dans un premier temps, une étude clinique a été réalisée à l’aide d’un premier prototype 3DUS linéaire développé par le groupe. L’étude a permis de constater que le volume mesuré par échographie 3D est environ trois fois plus petit que celui mesuré par tomodensitomètre et que le système possède plusieurs limitations (ex : volume d’acquisition trop petit, guidage des cathéters impossible). Dans un deuxième temps, un algorithme d’optimisation de la position et du nombre de cathéters a été développé. Il s’est avéré que la méthode développée est robuste aux erreurs d’implantation et qu’il est possible de réduire significativement le nombre de cathéters sans avoir un impact important sur la dosimétrie. Dans un troisième temps, une étude a comparé cet algorithme au seul algorithme commercialement disponible, HIPO. Les résultats ont démontré que l’algorithme HIPO produit des plans significativement inférieur, en terme de dosimétrie, à l’algorithme présenté dans cette thèse. Dans un quatrième temps, deux méthodes ont été développées afin de réaliser une planification personnalisée, en temps réel des traitements de curiethérapie HDR du sein. Les deux méthodes se sont avérées efficaces pour réduire le nombre de cathéter. Une preuve de concept a été validée et elle a démontré le potentiel d’une planification personnalisée, en temps réel des traitements de curiethérapie HDR du sein. À l’aide des connaissances acquises dans l’étude clinique, un nouveau prototype 3DUS a été développé. Il inclut un nouveau mode d’acquisition hybride et un module de guidage de la position des cathéters. Les résultats présentés dans cette étude ont mis en évidence le fait que le système 3DUS hybride a la capacité de mesurer avec justesse les dimensions linéaires ainsi que les volumes. Il reconstruit également avec justesse la trajectoire des cathéters. Pour terminer, dans le but d’effectuer une reconstruction dynamique des cathéters, un système de guidage électromagnétique a été validé. Les résultats ont démontré que la reconstruction des cathéters, en curiethérapie HDR, est significativement plus juste et plus précise à l’aide d’un système de guidage électromagnétique qu’en utilisant les méthodes conventionnelles.
This thesis focuses on the development and validation of different tools to increase the efficacy of high dose rate (HDR) breast brachytherapy treatments. The project goal aim at designing and validating a new system for real-time guidance and planning of HDR breast brachytherapy treatments, based mainly on 3D ultrasound (3DUS). As a first step, a clinical study was performed using the first linear 3DUS prototype developed by our group. This study has shown the limitations of the current system (ex : small acquisition volume, no catheter tracking possibility) and that 3DUS volumes are three times smaller than computed tomography volumes. As a second step, a catheter optimization algorithm was developed. The algorithm was shown to be robust to catheter implantation errors and it was possible to reduce significantly the number of catheters without having a significant negative impact on the dosimetry. As a third step, a study was designed to compare the present catheter optimization algorithm to the only commercially available algorithm, HIPO. The results demonstrated that the HIPO algorithm produce significantly worse plan, in term of dosimetry, than the algorithm that was developed in the present thesis. As a fourth step, two methods were developed for personalized, real-time planning of breast HDR brachytherapy treatments. The two methods were efficient and they were able to reduce the number of catheters. A proof-of-concept was validated and it demonstrated the potential of a personalized, real-time planning approach for breast HDR brachytherapy. Using the experience acquired during the clinical study, a new 3DUS system was developed. The system includes a new hybrid acquisition approach and a module for catheter tracking. The results presented in this study have shown the ability of the hybrid 3DUS system to accurately measure linear dimensions and volumes. Furthermore, it allows the reconstruction of the catheters trajectory with accuracy as well as track them in real-time. Finally, in order to dynamically reconstruct catheters, an electromagnetic tracking system was validated. This study has shown that the reconstruction of catheters, in HDR brachytherapy, is significantly more accurate and precise with an electromagnetic tracking system than with the conventional methods.
38

Perret, Cyril. "La Syllabe comme unité de traitement en production verbale orale et écrite." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2007. http://tel.archives-ouvertes.fr/tel-00270161.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le présent travail a pour objectif principal l'étude du rôle fonctionnel de la syllabe en production verbale orale et écrite de mots isolés.
Suite à une tentative de définition de « ce qu'est exactement une syllabe » dans une Introduction, nous avons rapporté des arguments en faveur d'un rôle fonctionnel de cette unité en perception visuelle et auditive.
Le Chapitre I présente une revue de la littérature portant sur la production verbale orale et écrite conceptuellement dirigée (Caramazza & Miceli, 1990 ; Dell, 1986 ; Levelt, Roelofs, & Meyer, 1999). Les différents niveaux de traitement (conceptuel, syntaxique, lexical et moteur) et les propositions concernant les mécanismes de traitement impliqués à chacune de ces étapes sont présentés. Une attention particulière a été portée aux propositions des principaux modèles concernant le rôle de la syllabe dans les processus d'accès lexical et de planification motrice.
Le Chapitre II est consacré à un effet qui est à l'origine d'un vif débat : l'effet d'amorçage syllabique. Ferrand, Segui et Grainger (1996) ont montré que la présentation d'un groupe de segments correspondant à la première syllabe d'un mot (e.g., ba-baleine ; balbalcon) facilite plus la dénomination qu'un groupe de segments plus court (e.g., ba-balcon) ou plus long (bal-baleine). Nous avons essayé de répliquer ce résultat en dénomination orale d'images (Expériences 2a, 2b et 3). Nous avons rapporté des données en faveur de l'hypothèse du recouvrement segmental (Sciller, 1998, 1999, 2000). Nous avons ensuite testé si le temps de présentation de l'amorce (Expérience 4) et le moment de présentation du groupe de segments (Expérience 5) pouvaient expliquer l'absence d'effet d'amorçage syllabique. Là encore, les données sont en accord avec l'hypothèse du recouvrement segmental (Schiller, 1998, 1999, 2000). Nous avons aussi exploré la possibilité d'obtenir cet effet en production verbale écrite (Expériences 1a et 1b).
Dans le Chapitre III, nous avons testé l'hypothèse selon laquelle les latences d'initialisation de mots monosyllabiques devraient être plus courts que celles de mots bisyllabiques, si la syllabe joue un rôle fonctionnel en production verbale orale et écrite. Des études pour les deux modalités ont répondu par la négative (Bachoud-Levi et al., 1998 ; Lambert, 1999 ; Lambert et al., sous presse ; Roelofs, 2002b). Toutefois, Meyer, Roelofs et Levelt, (2003) ont proposé qu'un critère temporel de réponse (Lupker et al., 1997) influence l'instant d'initialisation de la réponse. En conséquence, un effet du nombre de syllabes peut apparaître. Nous avons essayé de répliquer ce résultat en production verbale orale (Expérience 6) et de l'étendre à la production verbale écrite (Expérience 7). Toutefois, nous n'avons pas rapporté de données en faveur de l'hypothèse de Meyer et collaborateurs (2003) pour les deux modalités.
Le Chapitre IV a pour objectif de faire une synthèse des résultats que nous avons obtenus et de proposer des perspectives de recherches.
39

Habib, Bouchra. "Etude numérique et expérimentale d'un système de planification de traitement pour la radiothérapie intégrant un calcul Monte Carlo : applications aux hétérogénéités et petits faisceaux." Paris 11, 2009. http://www.theses.fr/2009PA112089.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Des avancées relatives à la rapidité du calcul de dose par MC ont été apportées dans le cadre du projet européen MAESTRO avec le développement du nouveau code MC rapide PENF AST ainsi que dans le cadre du projet TELEDOS avec la parallélisation de ce code. Ce travail de thèse, issu de ces deux projets, porte sur l'évaluation des performances techniques et dosimétriques du code MC, indispensable avant toute utilisation en routine clinique. Dans un premier temps, les techniques de réduction de variance incluses dans le code MC ainsi que la parallélisation du calcul ont été validées et évaluées en terme de gain en temps de calcul. La deuxième partie du travail a exposé une nouvelle méthode, rapide et précise, d'ajustement du spectre en énergie initial de l'accélérateur, indispensable au calcul de la dose par MC. La suite de l'étude a été consacrée à l'évaluation du calcul de dose par le code MC rapide PENFAST en conditions métrologiques et cliniques. Les résultats ont montré la capacité du code MC à calculer rapidement une dose précise, en modes photon et électron, même en condition de manque d'équilibre électronique. Cette étude a toutefois révélé une imprécision du TPS-MC dans la conversion de l'image TDM en géométrie voxélisée utilisée pour le calcul de dose. La qualité de cette voxélisation pourra être améliorée moyennant un logiciel automatique de correction des artefacts dans l'image TDM ainsi qu'en ajoutant des matériaux supplémentaires dans la base de données du code
Improvements relative to the MC dose calculation speed have been made within the European project MAESTRO by the development of the fast MC code PENFAST and within the TELEDOS project by the parallelization of this code. This PhD work, based on these two projects, focuses on the evaluation of the technical and dosimetric performances of the MC code. These issues are crucial before the use of the MC code in clinical applications. First, variance reduction techniques included in the MC code as well as the parallelization of the calculation have been validated and evaluated in terms of gain in the computing time. The second part of this work has exposed a new, fast and accurate method to determine the initial energy spectrum of the accelerator. This spectrum is required for the MC dose calculation. Afterwards, dose calculations with the fast MC code PENFAST have been evaluated under metrological and clinical conditions. The results showed the ability of the MC code to quickly calculate an accurate dose in both photon and electron modes, even in electronic disequilibrium situations. However, this study revealed an uncertainty, in the TPS MC, in the conversion of the CT image to voxelized geometry which is used for MC dose calculation. The quality of this voxelization may be improved through an artefact correction software and by including additional materials in the database of the code
40

Petitguillaume, Alice. "Dosimétrie Monte Carlo personnalisée pour la planification et l’évaluation des traitements de radiothérapie interne : développement et application à la radiothérapie interne sélective (SIRT)." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112190/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Techniques médicales en plein essor suscitant d’importants espoirs thérapeutiques, les radiothérapies internes vectorisées (RIV) consistent à administrer un radiopharmaceutique pour traiter sélectivement les tumeurs. A l’heure actuelle, l’activité injectée au patient est généralement standardisée. Cependant, afin d’établir des relations dose-effet robustes et d’optimiser le traitement en préservant au mieux les tissus sains, une dosimétrie personnalisée doit être réalisée, à l’image des pratiques cliniques existant en radiothérapie externe. Dans ce cadre, l’objectif de la thèse était de développer, à l’aide du logiciel OEDIPE, une méthode de dosimétrie personnalisée reposant sur des calculs Monte Carlo directs. La méthode mise au point permet de calculer la distribution tridimensionnelle des doses absorbées en fonction de l’anatomie du patient, définie à l’aide d’images TDM ou IRM, ainsi que de la biodistribution de l’activité spécifique au patient, définie à partir de données d’émission TEMP ou TEP. Des aspects radiobiologiques, tels que les différences de radiosensibilité et de vitesse de réparation entre les tissus sains et les lésions tumorales, ont également été intégrés par l’intermédiaire du modèle linéaire-quadratique. Cette méthode a été appliquée à la radiothérapie interne sélective (SIRT) qui consiste à injecter des 90Y-microsphères pour traiter sélectivement les cancers hépatiques inopérables. Les distributions des doses absorbées et doses biologiques efficaces (BED) ainsi que les doses biologiques efficaces équivalentes uniformes (EUD) aux lésions hépatiques ont été calculées à partir des distributions d’activité de l’étape d’évaluation aux 99mTc-MAA pour 18 patients traités à l’hôpital européen Georges Pompidou. Ces résultats ont été comparés aux méthodes classiques utilisées en clinique et l’intérêt d’une dosimétrie précise et personnalisée pour la planification de traitement a été étudié. D’une part, la possibilité d’augmenter l’activité de manière personnalisée a été mise en évidence par le calcul de l’activité maximale injectable au patient en fonction de critères de tolérance donnés aux organes à risque. D’autre part, l’utilisation des grandeurs radiobiologiques a également permis d’évaluer l’apport potentiel de protocoles fractionnés en SIRT. L’outil développé peut donc être utilisé comme aide à l’optimisation des plans de traitement. En outre, une étude a été initiée en vue d’améliorer la reconstruction des données post-traitement de la TEMP-90Y. L’évaluation à partir de ces données des doses délivrées lors du traitement pourra permettre, d’une part, de prédire le contrôle tumoral et d’anticiper le risque de toxicité aux tissus sains et, d’autre part, d’établir des relations dose-effet précises pour ces traitements
Medical techniques in full expansion arousing high therapeutic expectations, targeted radionuclide therapies (TRT) consist of administering a radiopharmaceutical to selectively treat tumors. Nowadays, the activity injected to the patient is generally standardized. However, in order to establish robust dose-effect relationships and to optimize treatments while sparing healthy tissues at best, a personalized dosimetry must be performed, just like actual clinical practice in external beam radiotherapy. In that context, this PhD main objective was to develop, using the OEDIPE software, a methodology for personalized dosimetry based on direct Monte Carlo calculations. The developed method enables to calculate the tridimensional distribution of absorbed doses depending on the patient anatomy, defined from CT or MRI data, and on the patient-specific activity biodistribution, defined from SPECT or PET data. Radiobiological aspects, such as differences in radiosensitivities and repair time constants between tumoral and healthy tissues, have also been integrated through the linear-quadratic model. This methodology has been applied to the selective internal radiation therapy (SIRT) which consists in the injection of 90Y-microspheres to selectively treat unresectable hepatic cancers. Distributions of absorbed doses and biologically effective doses (BED) along with the equivalent uniform biologically effective doses (EUD) to hepatic lesions have been calculated from 99mTc-MAA activity distributions obtained during the evaluation step for 18 patients treated at hôpital européen Georges Pompidou. Those results have been compared to classical methods used in clinics and the interest of accurate and personalized dosimetry for treatment planning has been investigated. On the one hand, the possibility to increase the activity in a personalized way has been highlighted with the calculation of the maximal activity that could be injected to the patient while meeting tolerance criteria on organs at risk. On the other hand, the use of radiobiological quantities has also enabled to evaluate the potential added value of fractionated protocols in SIRT. The developed tool can thus be used as a help for the optimization of treatment plans. Moreover, a study has been initiated to improve the reconstruction of post-treatment data from 90Y-SPECT. The estimation from those data of doses delivered during treatment could allow to predict tumoral control and to anticipate healthy tissues toxicity as well as to establish precise dose-effect relationships for those treatments
41

Aziz, Fatima. "Approche géométrique couleur pour le traitement des images catadioptriques." Thesis, Limoges, 2018. http://www.theses.fr/2018LIMO0080/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce manuscrit étudie les images omnidirectionnelles catadioptriques couleur en tant que variétés Riemanniennes. Cette représentation géométrique ouvre des pistes intéressantes pour résoudre les problèmes liés aux distorsions introduites par le système catadioptrique dans le cadre de la perception couleur des systèmes autonomes. Notre travail démarre avec un état de l’art sur la vision omnidirectionnelle, les différents dispositifs et modèles de projection géométriques. Ensuite, nous présentons les notions de base de la géométrie Riemannienne et son utilisation en traitement d’images. Ceci nous amène à introduire les opérateurs différentiels sur les variétés Riemanniennes, qui nous seront utiles dans cette étude. Nous développons alors une méthode de construction d’un tenseur métrique hybride adapté aux images catadioptriques couleur. Ce tenseur a la double caractéristique, de dépendre de la position géométrique des points dans l’image, et de leurs coordonnées photométriques également. L’exploitation du tenseur métrique proposé pour différents traitements des images catadioptriques, est une partie importante dans cette thèse. En effet, on constate que la fonction Gaussienne est au cœur de plusieurs filtres et opérateurs pour diverses applications comme le débruitage, ou bien l’extraction des caractéristiques bas niveau à partir de la représentation dans l’espace-échelle Gaussien. On construit ainsi un nouveau noyau Gaussien dépendant du tenseur métrique Riemannien. Il présente l’avantage d’être applicable directement sur le plan image catadioptrique, également, variable dans l’espace et dépendant de l’information image locale. Dans la dernière partie de cette thèse, nous discutons des applications robotiques de la métrique hybride, en particulier, la détection de l’espace libre navigable pour un robot mobile, et nous développons une méthode de planification de trajectoires optimal
This manuscript investigates omnidirectional catadioptric color images as Riemannian manifolds. This geometric representation offers insights into the resolution of problems related to the distortions introduced by the catadioptric system in the context of the color perception of autonomous systems. The report starts with an overview of the omnidirectional vision, the different used systems, and the geometric projection models. Then, we present the basic notions and tools of Riemannian geometry and its use in the image processing domain. This leads us to introduce some useful differential operators on Riemannian manifolds. We develop a method of constructing a hybrid metric tensor adapted to color catadioptric images. This tensor has the dual characteristic of depending on the geometric position of the image points and their photometric coordinates as well.In this work, we mostly deal with the exploitation of the previously constructed hybrid metric tensor in the catadioptric image processing. Indeed, it is recognized that the Gaussian function is at the core of several filters and operators for various applications, such as noise reduction, or the extraction of low-level characteristics from the Gaussian space- scale representation. We thus build a new Gaussian kernel dependent on the Riemannian metric tensor. It has the advantage of being applicable directly on the catadioptric image plane, also, variable in space and depending on the local image information. As a final part in this thesis, we discuss some possible robotic applications of the hybrid metric tensor. We propose to define the free space and distance transforms in the omni- image, then to extract geodesic medial axis. The latter is a relevant topological representation for autonomous navigation, that we use to define an optimal trajectory planning method
42

Morlot, Frédéric. "Processus spatio-temporels en géométrie stochastique et application à la modélisation de réseaux de télécommunication." Phd thesis, Télécom ParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-00931407.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette thèse est de réunir les deux approches suivantes qui existent actuellement pour étudier une foule: ou bien à temps fixé on s'intéresse à la distribution spatiale des individus, ou bien on suit un seul individu à la fois au cours du temps. On se propose de construire des processus spatio-temporels, qui, comme leur nom l'indique, permettraient de rendre compte du caractère aléatoire des usages d'une foule dans un réseau de télécommunication, à la fois du point de vue spatial (modèles de route) et du point de vue temporel (déplacements sur ces routes, usages qui varient au cours de ces déplacements...). Une fois ces processus construits de manière rigoureuse, on étudie leur comportement d'une manière fine. Nous développons trois modèles différents qui chacun mènent à des formules analytiques fermées, ce qui permet de les utiliser d'une manière très confortable à des fins de dimensionnement.
43

Arib, Souhila. "Mécanismes de formation de coalitions d’agents dans les processus de planification." Thesis, Paris 9, 2015. http://www.theses.fr/2015PA090027.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail que nous présentons dans cette thèse s'articule autour du problème de la formation de coalitions entre des agents égoïstes qui planifient leurs activités, dans les systèmes multi-agents (SMA). Nous avons proposé, dans un premier temps, un mécanisme qui se fonde sur l’analyse des actions des agents dans leurs plans et le raisonnement sur les plans des autres, grâce notamment au calcul d’un degré de croyance sur les actions. Nous nous sommes, par ailleurs, intéressés au problème de la formation de coalitions avec des contraintes dynamiques et des préférences que les agents révèlent et communiquent aux autres lors de leurs négociations. Enfin, nous avons affiné notre mécanisme de formation des coalitions en permettant une recherche des coalitions guidée par la construction d'un arbre de contraintes et d'un arbre de coalitions, qui sont ensuite exploré par le biais de l'algorithme Monte-Carlo
The work we present, in this thesis, focuses on the coalition formation problem for self-interested agents which plan their activities in multi-agents systems. As a first step, we have proposed, a mechanism that is based on the analysis of the agents' actions in their plans and reasoning about the plans of others. Additionally, we have addressed the problem of coalition formation with dynamic constraints and preferences that agents reveal and communicate to others during their negotiations. Finally, we have refined our coalition formation mechanism allowing a guided search of the coalitions by building a tree of constraints and a tree of coalitions. Each tree is explored by means of the Monte-Carlo algorithm
44

Hannachi, Ammar. "Imagerie multimodale et planification interactive pour la reconstruction 3D et la métrologie dimensionnelle." Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAD024/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La fabrication de pièces manufacturées génère un nombre très important de données de différents types définissant les géométries de fabrication ainsi que la qualité de production. Ce travail de thèse s’inscrit dans le cadre de la réalisation d’un système de vision cognitif dédié à l’évaluation d’objets 3D manufacturés incluant éventuellement des surfaces gauches, en tenant compte des tolérances géométriques et des incertitudes. Ce système permet un contrôle exhaustif de pièces manufacturées et offre la possibilité d’une inspection tridimensionnelle automatique de la pièce. La mise en place d’un système de mesures multi-capteurs (passifs et actifs) a permis d’améliorer significativement la qualité d’évaluation par le biais d’une reconstruction tridimensionnelle enrichie de l’objet à évaluer. En particulier, nous avons employé simultanément un système stéréoscopique de vision et un système à projection de lumière structurée afin de reconstruire les contours et les surfaces de différents objets 3D
Producing industrially manufactured parts generates a very large number of data of various types defining the manufacturing geometries as well as the quality of production. This PhD work has been carried out within the framework of the realization of a cognitive vision system dedicated to the 3D evaluation of manufactured objects including possibly free form surfaces, taking into account the geometric tolerances and uncertainties. This system allows the comprehensive control of manufactured parts, and provides the means for their automated 3D dimensional inspection. The implementation of a multi-sensor (passive and active) measuring system enabled to improve significantly the assessment quality through an enriched three-dimensional reconstruction of the object to be evaluated. Specifically, we made use simultaneously of a stereoscopic vision system and of a structured light based system in order to reconstruct the edges and surfaces of various 3D objects
45

Guérin, Clément. "Gestion de contraintes et expertise dans les stratégies d'ordonnancement." Thesis, Rennes 2, 2012. http://www.theses.fr/2012REN20025/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Encore très peu de travaux de psychologie se sont penchés sur l’activité d’ordonnancement, par exemple dans la planification des tâches, de l’occupation des personnels et des machines dans des ateliers. Jusqu’alors, les travauxexistants dans la littérature ont cherché à décrire les procédures mises en oeuvre par les ordonnanceurs. En adoptantle point de vue complémentaire des représentations manipulées, cette thèse a examiné les processus psychologiquesimpliqués dans cette activité, en termes de gestion de contraintes. Deux situations d’ordonnancement ont été étudiées : la conception d’emploi du temps et l’ordonnancement manufacturier. En comparant l’activité de novices à celle d’experts,nous avons observé que la stratégie experte est de s’appuyer sur les contraintes visibles dans le Système de Représentation et de Traitement externe de la solution au problème d’ordonnancement (emploi du temps ou diagrammede Gantt). Ces études nous ont également permis de confirmer la capacité d’abstraction des ordonnanceurs experts. De plus, en choisissant deux cas particuliers d’ordonnancement, nous avons aussi pu comparer leurs similarités et leurs différences. Par ailleurs, à partir d’un travail mené antérieurement à l’IRCCyN dans le domaine de la recherche opérationnelle, nous avons évalué un outil d’assistance à l’ordonnancement. Ce travail pluridisciplinaire nous a permisd’examiner l’effet d’une des modalités de coopération homme-­‐machine (le contrôle mutuel de la machine) sur l’activitéde l’ordonnanceur, mais aussi la question de la gestion des risques de panne par les ordonnanceurs
Only a few research works in psychology are devoted to scheduling, for example about planning tasks, workers and machines occupation in the shop. In the literature, schedulers are mainly described from the procedural viewpoint. For describing scheduling activity, we adopted the complementary representational viewpoints in terms of constraints management. Two scheduling situations have been studied: timetabling and industrial scheduling. By comparing novices and experts, we observed that the latter used constraints visible on the timetable or on the Gantt chart, to solve the scheduling problem. Moreover, experts used a higher level of abstraction than novices in the control of processing. Finally, we highlighted the similarities and differences between industrial scheduling and timetabling. In addition, we conducted a multidisciplinary study from a previous work in the field of operational research by evaluating a scheduling tool. We investigated the effect of the mutual control modality on human scheduling decisions, and the management of breakdowns risks in a shop by schedulers
46

Moignier, Cyril. "Dosimétrie des faisceaux de photons de petites dimensions utilisés en radiothérapie stéréotaxique : détermination des données dosimétriques de base et évaluation des systèmes de planification de traitement." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112258/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les faisceaux de photons de petites dimensions utilisés en radiothérapie stéréotaxique sont caractérisés par de forts gradients de dose et un manque important d’équilibre électronique latéral, ce qui rend les techniques dosimétriques conventionnelles inadaptées. L’objectif de la thèse est de permettre une meilleure évaluation de la dose délivrée aux patients traités par radiothérapie stéréotaxique. D’une part, les données dosimétriques de base utilisées pour l’étalonnage du système de planification de traitement (TPS) ont été déterminées numériquement. Pour cela, deux installations de radiothérapie de type CyberKnife ont été modélisées avec le code Monte Carlo PENELOPE. Des mesures de rapport d’ouverture du collimateur ont également été réalisées à l’aide de plusieurs détecteurs actifs et de deux dosimètres passifs (film radiochromique et micro-LiF) et comparées aux facteurs d’ouverture du collimateur calculés par simulation. Six détecteurs ont été modélisés afin d’étudier les phénomènes physiques impliqués dans la réponse des détecteurs en petits champs. Parmi les détecteurs étudiés, seuls les films radiochromiques sont en accord avec la simulation, ils peuvent être utilisés sans facteur correctif. La perturbation induite par les autres détecteurs a pu être expliquée, soit par l’effet volume dû à la taille trop importante du volume actif par rapport au diamètre du faisceau, soit par la masse volumique des matériaux utilisés dans la conception du détecteur qui est trop éloignée de celle de l’eau. Les facteurs correctifs, permettant de corriger la non-équivalence-eau et/ou la mauvaise résolution spatiale de chaque détecteur, ont été déterminés pour les deux systèmes CyberKnife.D’autre part, un protocole de mesure de distributions de dose 2D pour les mini-faisceaux, basé sur l’utilisation des films radiochromiques, a été établi et un programme sous MatLab permettant l’analyse entre les distributions de doses mesurées et calculées a été développé. Des plans de traitement stéréotaxique en milieu hétérogène ont ensuite été réalisés pour un fantôme afin d’évaluer les algorithmes de calcul de dose implémentés dans le TPS MultiPlan (TPS associé au système CyberKnife). L’analyse des distributions de dose 2D des plans de traitement a montré que l’algorithme de type « Pencil Beam » implémenté dans MultiPlan est performant en milieu homogène équivalent-eau mais n’est pas adapté pour les milieux à faible densité électronique tels que le poumon. En effet, celui-ci surestime la dose dans le champ (jusqu’à 40%) ce qui peut conduire à diminuer l’efficacité du traitement de la tumeur et la sous-estime hors du champ ce qui risque de sous-évaluer la dose reçue par les organes à risques à proximité. En milieu hétérogène, l’algorithme Monte Carlo implémenté dans MultiPlan est globalement en accord avec la mesure et est par conséquent l’algorithme à privilégier pour estimer la dose délivrée au patient lorsque des milieux à faible densité sont présents
Dosimetry of small beams is challenging given their small size compared to the detectors, high dose gradient and the lack of lateral electronic equilibrium. The Ph.D. thesis aims to improve the accuracy of the dose delivered to the patient in stereotactic radiotherapy.On the one hand, dosimetric data used to calibrate the treatment planning system (TPS) were determined using numerical simulations. To achieve this, two CyberKnife radiotherapy facilities were modelled using the PENELOPE Monte Carlo code. Output ratios measurements were performed with several active detectors and with two passive dosimeters (radiochromic film and micro-LiF) and compared with output factors calculated by simulation. Six detectors were modeled in order to study the detectors response in small beams. Among the detectors studied, only the radiochromic films were in agreement with the simulations, they can be used without correction factors. The disturbance of the detectors response in small beams was explained either by the volume effect induced by the active volume, which is too high compared to the beam size, or by the mass density effect induced by the detector body materials which are too far from water mass density. The correction factors, required to correct the disturbance caused by the non-water-equivalence and/or the low spatial resolution of each detector, were calculated for the two CyberKnife systems.On the other hand, a 2D dose measurement protocol using radiographic films and a MatLab program were developed. Stereotactic treatment plans were then performed for a phantom in order to assess the calculation algorithms implemented in the MultiPlan TPS (associated with the CyberKnife system). The analysis of the 2D dose distributions related to the stereotactic treatment plans has shown that the “Pencil Beam” based algorithm implemented in MultiPlan is suitable for dose calculation in homogeneous water-equivalent media but not in low electronic density media such as the lung. Indeed, the dose is overestimated (up to 40%) inside the field and may lead to reduce the tumor treatment efficiency while it is underestimated outside the field which can underestimate the dose to critical organs within proximity of the tumor. Regarding the Monte Carlo algorithm implemented in MultiPlan, calculated and measured dose distributions are consistent and, as a consequence, it is the most suitable algorithm available in MultiPlan to estimate the dose received by a patient when low density media are involved
47

De, conto Celine. "Evaluation dosimétrique dfes algorithmes implémentés dans les systèmes de planification de traitement en présence d'hétérogénéités de forte densité : cas de la sphère ORL en radiothérapie externe." Thesis, Besançon, 2014. http://www.theses.fr/2014BESA2063/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ces dernières années, les techniques de traitement des cancers par radiothérapie externe se sont complexifiéesafin de cibler la tumeur tout en protégeant les organes à risque. Les systèmes de planification de traitement (TPS)réalisent un calcul prévisionnel de la distribution de la dose absorbée dans le patient (via des images CT).Afin d’obtenir un résultat de dose précis dans un temps raisonnable, le calcul est effectué par des algorithmessimplifiés. En présence de dispositifs médicaux métalliques de masses volumiques élevées (prothèses de hancheou prothèses dentaires), les algorithmes atteignent leurs limites. De plus, ces dispositifs perturbent lareconstruction tomodensitométrique en créant des artéfacts sur les images rendant difficile la délinéation desorganes. L’objectif de ce travail a été d’évaluer les algorithmes implémentés dans les TPS en présenced’hétérogénéités de forte densité avec des mesures expérimentales et le code de calcul Monte-Carlo BEAMnrcdans un fantôme anthropomorphique tout d’abord avec des échantillons naturels, puis avec des échantillonscalibrés. Ensuite, une évaluation rétrospective des algorithmes cliniques par rapport à Monte-Carlo a été réaliséeavec des patients traités en RC3D et en RCMI.Les mesures ont mis en évidence une atténuation pouvant aller jusqu’à 17 % pour l’amalgame dentaire parrapport à l’algorithme clinique sur les images CT avec artéfacts, créant une zone de sous-dosage dans le volumecible. L’ensemble des résultats a donné lieu à des recommandations pour la clinique (corriger les images CT si levolume cible est à moins de 3 cm d’une prothèse, privilégier l’algorithme AAA plutôt que Pencil Beam…)
The last few years, cancer treatment techniques in radiation therapy have become more complex to better targetthe tumor while protecting the organs at risk. The treatment planning systems (TPS) achieve a predictivecalculation of the distribution of the dose absorbed by the patient (via CT images).In order to obtain an accurate dose result within a reasonable time, the calculation is performed with simplifiedalgorithms. In the presence of medical devices made of high density metal (hip prosthesis or dental prosthesis),the algorithms reach their limits. Moreover, these devices disrupt computed tomography reconstruction, creatingartifacts on the images and thus making difficult the delineation of organs. The aim of this work is to evaluatethe algorithms of the TPS in the presence of high density heterogeneity using experimental measurements andthe Monte Carlo BEAMnrc code in an anthropomorphic phantom: on one hand with natural samples, and on theother hand, with calibrated samples. Then, a retrospective evaluation of clinical algorithms compared to MonteCarlo is achieved using treated patients in Conformal Radiotherapy and in Intensity Modulated RadiationTherapy (IMRT). The measurements show an attenuation of up to 17 % for dental amalgam compared with theclinical algorithm on CT images with artifacts, creating an under-dosage area in the target volume. All theseresults lead to recommendations for the clinical treatments (corrected CT images if the target volume is closerthan 3 cm to prosthesis, favor the AAA algorithm rather than Pencil Beam …)
48

Zhu, Wenwu. "Segmentation et recalage d'images TDM multi-phases de l'abdomen pour la planification chirurgicale." Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAD011/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La fusion d’images TDM de phase artérielles et veineuses est cruciale afin d’assurer une meilleure planification chirurgicale. Cependant, le recalage non-rigide d’images abdominales est encore un challenge à cause de la respiration qui fait glisser les viscères abdominaux le long de la paroi abdominale, créant ainsi un champ de déformation discontinu. L’objectif de cette thèse est de fournir un outil de recalage précis pour les images TDM multi-phases de l’abdomen.Comme la zone de glissement dans l’abdomen est difficile à segmenter, nous avons d’abord implémenté deux outils de segmentation interactifs permettant une délinéation en 10 minutes de la paroi abdominale et du diaphragme. Pour intégrer ces zones de glissement comme a priori, nous réalisons le recalage sur de nouvelles images dans lesquelles la paroi abdominale et les viscères thoraciques ont été enlevés. Les évaluations sur des données de patient ont montré que notre approche fournit une précision d’environ 1 mm
The fusion of arterial and venous phase CT images of the entire abdominal viscera is critical for a better diagnosis, surgi-cal planning and treatment, since these two phase images contain complementary information. However, non-rigid regis-tration of abdominal images is still a big challenge due to the breathing motion, which causes sliding motion between the abdominal viscera and the abdo-thoracic wall. The purpose of this thesis is to provide an accurate registration method for abdominal viscera between venous and arterial phase CT images.In order to remove the sliding motion effect, we decide to separate the image into big motion and less motion regions, and perform the registration on new images where abdo-thoracic wall and thoracic viscera are removed. The segmentation of these sliding interfaces is completed with our fast interactive tools within 10 minitues. Two state-of-the-art non-rigid registration algorithms are then applied on these new images and compared to registration obtained with original images. The evaluation using four abdominal organs (liver, kidney, spleen) and several vessel bifurcations shows that our approach provides a much higher accuracy within 1 mm
49

Pastorelli, Mario. "Disciplines basées sur la taille pour la planification des jobs dans data-intensif scalable computing systems." Thesis, Paris, ENST, 2014. http://www.theses.fr/2014ENST0048/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La dernière décennie a vu l’émergence de systèmes parallèles pour l’analyse de grosse quantités de données (DISC) , tels que Hadoop, et la demande qui en résulte pour les politiques de gestion des ressources, pouvant fournir des temps de réponse rapides ainsi qu’équité. Actuellement, les schedulers pour les systèmes de DISC sont axées sur l’équité, sans optimiser les temps de réponse. Les meilleures pratiques pour surmonter ce problème comprennent une intervention manuelle et une politique de planification ad-hoc , qui est sujette aux erreurs et qui est difficile à adapter aux changements. Dans cette thèse, nous nous concentrons sur la planification basée sur la taille pour les systèmes DISC. La principale contribution de ce travail est le scheduler dit Hadoop Fair Sojourn Protocol (HFSP), un ordonnanceur préemptif basé sur la taille qui tient en considération le vieillissement, ayant comme objectifs de fournir l’équité et des temps de réponse réduits. Hélas, dans les systèmes DISC, les tailles des job d’analyse de données ne sont pas connus a priori, donc, HFSP comprends un module d’estimation de taille, qui calcule une approximation et qui affine cette estimation au fur et a mesure du progrès d’un job. Nous démontrons que l’impact des erreurs d’estimation sur les politiques fondées sur la taille n’est pas significatif. Pour cette raison, et en vertu d’être conçu autour de l’idée de travailler avec des tailles estimées, HFSP est tolérant aux erreurs d’estimation de la taille des jobs. Nos résultats expérimentaux démontrent que, dans un véritable déploiement Hadoop avec des charges de travail réalistes, HFSP est plus performant que les politiques de scheduling existantes, a la fois en terme de temps de réponse et d’équité. En outre, HFSP maintiens ses bonnes performances même lorsque le cluster de calcul est lourdement chargé, car il focalises les ressources sur des jobs ayant priorité. HFSP est une politique préventive: la préemption dans un système DISC peut être mis en œuvre avec des techniques différentes. Les approches actuellement disponibles dans Hadoop ont des lacunes qui ont une incidence sur les performances du système. Par conséquence, nous avons mis en œuvre une nouvelle technique de préemption, appelé suspension, qui exploite le système d’exploitation pour effectuer la préemption d’une manière qui garantie une faible latence sans pénaliser l’avancement des jobs a faible priorité
The past decade have seen the rise of data-intensive scalable computing (DISC) systems, such as Hadoop, and the consequent demand for scheduling policies to manage their resources, so that they can provide quick response times as well as fairness. Schedulers for DISC systems are usually focused on the fairness, without optimizing the response times. The best practices to overcome this problem include a manual and ad-hoc control of the scheduling policy, which is error-prone and difficult to adapt to changes. In this thesis we focus on size-based scheduling for DISC systems. The main contribution of this work is the Hadoop Fair Sojourn Protocol (HFSP) scheduler, a size-based preemptive scheduler with aging; it provides fairness and achieves reduced response times thanks to its size-based nature. In DISC systems, job sizes are not known a-priori: therefore, HFSP includes a job size estimation module, which computes approximated job sizes and refines these estimations as jobs progress. We show that the impact of estimation errors on the size-based policies is not signifi- cant, under conditions which are verified in a system such as Hadoop. Because of this, and by virtue of being designed around the idea of working with estimated sizes, HFSP is largely tolerant to job size estimation errors. Our experimental results show that, in a real Hadoop deployment and with realistic workloads, HFSP performs better than the built-in scheduling policies, achieving both fairness and small mean response time. Moreover, HFSP maintains its good performance even when the cluster is heavily loaded, by focusing the resources to few selected jobs with the smallest size. HFSP is a preemptive policy: preemption in a DISC system can be implemented with different techniques. Approaches currently available in Hadoop have shortcomings that impact on the system performance. Therefore, we have implemented a new preemption technique, called suspension, that exploits the operating system primitives to implement preemption in a way that guarantees low latency without penalizing low-priority jobs
50

Guerin, Clément. "Gestion de contraintes et expertise dans les stratégies d'ordonnancement." Phd thesis, Université Rennes 2, 2012. http://tel.archives-ouvertes.fr/tel-00744251.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Encore très peu de travaux de psychologie se sont penchés sur l'activité d'ordonnancement, par exemple dans la planification des tâches, de l'occupation des personnels et des machines dans des ateliers. Jusqu'alors, les travauxexistants dans la littérature ont cherché à décrire les procédures mises en oeuvre par les ordonnanceurs. En adoptantle point de vue complémentaire des représentations manipulées, cette thèse a examiné les processus psychologiquesimpliqués dans cette activité, en termes de gestion de contraintes. Deux situations d'ordonnancement ont été étudiées : la conception d'emploi du temps et l'ordonnancement manufacturier. En comparant l'activité de novices à celle d'experts,nous avons observé que la stratégie experte est de s'appuyer sur les contraintes visibles dans le Système de Représentation et de Traitement externe de la solution au problème d'ordonnancement (emploi du temps ou diagrammede Gantt). Ces études nous ont également permis de confirmer la capacité d'abstraction des ordonnanceurs experts. De plus, en choisissant deux cas particuliers d'ordonnancement, nous avons aussi pu comparer leurs similarités et leurs différences. Par ailleurs, à partir d'un travail mené antérieurement à l'IRCCyN dans le domaine de la recherche opérationnelle, nous avons évalué un outil d'assistance à l'ordonnancement. Ce travail pluridisciplinaire nous a permisd'examiner l'effet d'une des modalités de coopération homme-­‐machine (le contrôle mutuel de la machine) sur l'activitéde l'ordonnanceur, mais aussi la question de la gestion des risques de panne par les ordonnanceurs.

До бібліографії