Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Algorithme d'adaptation de débit.

Dissertationen zum Thema „Algorithme d'adaptation de débit“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-15 Dissertationen für die Forschung zum Thema "Algorithme d'adaptation de débit" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Kanj, Hind. „Zero-Latency strategies for video transmission using frame extrapolation“. Electronic Thesis or Diss., Valenciennes, Université Polytechnique Hauts-de-France, 2024. https://ged.uphf.fr/nuxeo/site/esupversions/53e0c0d3-296e-477f-9adc-2dbc315128f5.

Der volle Inhalt der Quelle
Annotation:
La demande de diffusion sans interruption de contenu vidéo et de haute qualité avec une latence minimale est essentielle dans les applications telles que la diffusion sportive et le contrôle de systèmes à distance. Cependant, la diffusion vidéo reste exposée à des défis en raison des caractéristiques variables des canaux de communication, qui peuvent avoir un impact sur la qualité de l'expérience en termes de qualité vidéo et de latence de bout en bout (le temps entre l'acquisition de la vidéo à l'émetteur et son affichage au récepteur).L'objectif de cette thèse est d'aborder le problème des applications en temps réel avec transmission unicast du serveur au client, telles que les applications de contrôle à distance, tout en maintenant une bonne qualité. Nous testons l'efficacité d'une technique récente d'apprentissage profond pour la compensation de la latence dans le schéma de transmission vidéo et son impact sur la qualité. Cette technique prédit les images futures à l'aide des images précédentes disponibles, ce qui permet d'afficher les images au moment voulu. Les résultats montrent que l'extrapolation est prometteuse, en particulier pour les contenus avec peu d'informations temporelles. Cependant, elle doit encore être améliorée en termes de qualité, de prédiction à long terme et de délai d'extrapolation.Plusieurs études se concentrent sur l'intégration d'un système hybride numérique-analogique pour améliorer la qualité perceptive, profitant des avantages des méthodes numériques et analogiques. Nous étudions l'efficacité d'un schéma hybride à faible latence en termes de réduction de la latence tout en maintenant une qualité vidéo élevée. Les résultats montrent que le système hybride améliore la qualité de la vidéo reçue dans la plupart des cas. Cependant, les artefacts d'extrapolation surpassent les artefacts d'encodage et masquent les avantages des schémas hybrides. Ainsi, l'amélioration des performances des schémas hybrides repose sur l'amélioration de l'extrapolation.En plus, les méthodes de diffusion adaptative HTTP ont prouvé leur efficacité pour améliorer la qualité de l'expérience en ajustant le débit d'encodage en fonction des conditions du canal. La plupart de ces algorithmes sont utilisés au client, ce qui pose des problèmes pour répondre aux exigences de latence des applications en temps réel. Dans ces applications, les vidéos sont acquises, compressées et transmises à partir de dispositifs jouant le rôle de serveurs. Donc, ces méthodes pilotées par le client ne conviennent pas à cause de la variabilité des conditions du canal. En plus, la prise de décision se fait avec une périodicité de l'ordre de la seconde, ce qui n'est pas assez réactif lorsque le serveur se déplace, ce qui entraîne des retards importants. Il est donc important d'utiliser une granularité d'adaptation plus fine. Nous visons à contrôler la latence de bout en bout tout en garantissant une qualité d'expérience élevée. Un contrôle du débit d'encodage au niveau d'image à l'émetteur est combiné à une extrapolation au récepteur pour compenser le retard de bout en bout. Le contrôle du débit au niveau d'image permet au système de s'adapter aux variations soudaines des conditions du canal. Un retard apparent de bout en bout nul peut être atteint au prix d'une perte de qualité du signal. Les algorithmes existants tentent d'optimiser les sources individuelles de retard dans le schéma de diffusion vidéo, mais pas de réduire la latence de bout en bout et d'atteindre une latence nulle. Un «Model Predictive Control» impliquant le niveau de mémoire tampon à l'émetteur et l'estimation du débit canal est utilisée pour trouver la valeur optimale du débit d'encodage pour chaque image. Il ajuste dynamiquement le compromis entre le débit de codage et l'horizon d'extrapolation, tout en prévoyant l'impact de la décision relative au débit d'encodage sur les images futures, pour améliorer la qualité d'expérience
The demand for seamless, high-quality video content delivery with minimal latency is paramount in today's applications such as sports broadcasting, videoconferencing, and remote system control. However, video delivery still faces challenges due to unpredictable nature of communication channels. The variations in channel characteristics can impact the quality of experience in terms of content quality and End-To-End latency - the time elapsed between video acquisition at the transmitter and its display at the receiver.The aim of this thesis is to address the issue of real time applications with unicast transmission from server to client such as remote control applications, while maintaining a good quality. We test the effectiveness of a recent deep learning technique for latency compensation in the video transmission scheme and its impact on video quality. This technique predicts future frames using available previous frames, allowing the end-user to display the images at the desired time. The results demonstrate the promise of extrapolation, especially for content with low temporal information. However, it still needs to be improved in terms of quality, long-term prediction, and extrapolation delay.Various studies focus on the integration of a hybrid digital-analog scheme to improve the perceptual quality, taking advantage of the strengths of both digital and analog methods. We study the effectiveness of low-latency hybrid scheme in term of reducing latency while maintaining high video quality. The results show that the hybrid scheme improves the quality of the received video in most cases. However, the extrapolation artifacts outweigh encoding artifacts and mask the advantages of hybrid schemes. Thus, the improvement in hybrid scheme performance relies on the enhancement of extrapolation.Moreover, HTTP Adaptive Streaming methods have proven their effectiveness in improving the quality of experience by dynamically adjusting the encoding rate based on channel conditions. However, most of these adaptation algorithms are implemented at the client level, which poses challenges in meeting latency requirements for real time applications. In addition, in real time application, videos are acquired, compressed, and transmitted from the device acting as the server. Therefore, client-driven rate adaptation approaches are not suitable due to the variability of the channel characteristics. Moreover, in these methods, the decision-making is done with a periodicity of the order of a second, which is not reactive enough when the server is moving, leading to significant delays. Therefore, it is important to use a finer adaptation granularity in order to reduce the End-To-End delay. We aim to control the End-To-End latency during video delivery while ensuring a high quality of experience. A frame-level encoder rate control at the transmitter side is combined with a frame extrapolation at the receiver side to compensate the End-To-End delays. Frame-level rate control enables the system to adapt to sudden variations of channel characteristics. Null apparent End-To-End delay can be reached at the price of some signal quality. To the best of our knowledge, state-of-the-art algorithms try to optimize the individual sources of delay in the video delivery scheme, but not to reduce the whole End-To-End latency and achieve zero latency. A model predictive control approach involving the buffer level at the transmitter and the throughput estimation is used to find the optimal value of encoding rate for each frame. It dynamically adjusts the trade-off between the encoding rate and the extrapolation horizon at the receiver, while predicting the impact of the encoding rate decision on future frames, thus providing the best quality of experience
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Tronc, François. „Mécanismes d'adaptation vasculaire au débit : rôle de l'oxyde nitrique et des métalloprotéases“. Paris 7, 2001. http://www.theses.fr/2001PA077264.

Der volle Inhalt der Quelle
Annotation:
Le s vaisseaux sanguins soumis a un hyperdebit s'adaptent en se dilatant. Ce remodelage de la paro arterielle est êndothêlium-dêpêndant et permet de normaliser la contrainte de cisaillement. Nous avons analyse les mecanismes d'adaptation vasculaire dans un modele d'augmentation chronique du flux sanguin : la fistule carotido-jugulaire chez le lapin. Dans un groupe temoin, la carotide fistulisee s'est dilatee avec histologiquêmênt accroissement de la surface de la media et fragmentation de la limitante elastique interne. Ce remodelage adaptatif a ete bloque par inhibition de la synthese de no nous avons analyse l'implication des mêtalloproteases dans cette adaptation. L'etude zymographique precoce met en evidence l'apparition de deux gelatinases (mmp2 activee , pro-mmp9), dans la paroi de la carotide fistulisee. La mmp2 activee est absente et la pro-mmp9 reduite lors de l'inhibition des metalloproteases par le batimastatou la doxicycline. Ce resultat est correle avec l'absence de dilatation du vaisseau et de fragmentation des fibres elastiques. Le blocage de la synthese du no a bloque l'activation des metalloproteases par le flux et l'adaptation des vaisseaux. Ces resultats suggerent que les metalloproteases sont indispensables a l'adaptation vasculaire et sont activee s par le no synthetise en reponse a un cisaillement accru. L'anomalie de naissance de la coronaire gauche a partir de l'artere pulmonaire realise un modele de shunt aorto-pulmonairê via les coronaires. Elle nous a permis d'etudier la coronaire droite soumise a un hyperdebitchez 10 patients. Malgre un flux considerable, la dilatation arterielle coronarienne a permis de normaliser le cisaillement
F low-induced changes in vessel caliber tend to restore bas eline wall shear stress and have been reported to be endothelium dependent. To investigate the role of ëndothelium derived nitric oxide in the adaptive increase in artery diameter in response to a chronic increase in blood flowa carotido-jugular arteriovenous fistula was constructed in rabbits. The diameter of the flow-loaded artery increased significantly to normalize wall shear stress. We found a larger increase in the medial cross sectional area associated with an increased number of smooth muscle cells and tears of the internal elastic lamina. This adaptive increase was abolished in animals in whom no s ynthesis was inhibited. We investigate the potential role of matrix metalloproteinases in flow-induced vascular remodêling. Three days aftêr the construction of the arteriove nous fistula gelatin zymography showed a significant increase in active mmp-2 and pro-mmp-9. In further experiments mmp activity was inhibited b y treatment with doxicycline or batimastat and active mmp-2 was abolished and pro-mmp-9 reduced. Furthermore both increased arterial diameter and internal elastic lamina fragmentation were abolished. Mmp activites were significantl y decreased in carotid arteries of no synthase bloqued animals suggesting that blood flow-induced nitric oxide participates in mmp activation. Anomalous origin of the left coronar y artery from the pulmonary artery represents an aorto-pulmonary shunt through coronar y arteries. Despite a sustained increase in blood flow, right coronary artery increase in diameter to normalise wall shear stress
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Li, Yiqun. „Contribution à l'optimisation des performances d'antennes de téléphones mobiles à l'aide de techniques d'adaptation“. Cergy-Pontoise, 2009. http://biblioweb.u-cergy.fr/theses/09CERG0429.pdf.

Der volle Inhalt der Quelle
Annotation:
La conception d’antenne d’un téléphone mobile est un problème « multi-objectifs » complexe. De ce fait, la procédure actuelle de conception d’antennes de téléphones mobiles intègre toujours une phase importante de « trial et error » en utilisant des logiciels de simulation numérique ou des outils de mesure. La bande passante en espace libre est souvent considérée comme le critère de décision central. Une nouvelle méthode permettant d’optimiser simultanément les performances en espace libre et en présence de fantôme était appliquée. Il s’agissait de changer le critère de décision central en mettant l’accent sur le rapport TRP / DAS, et de rattraper la bande passante par d’autres moyens, plus particulièrement focalisée sur l’aspect de la technique de l’adaptation. A cette fin, les limites d’adaptation entre le coefficient de réflexion et la bande passante après l’ajout d’un circuit d’adaptation pour un téléphone mobile mono- et bi-bande ont été déduites. Ces limites donnent une idée des degrés de liberté dans la conception d’antenne d’un téléphone mobile. Cette thèse a donc abouti sur une méthode pratique pour obtenir un bon compromis entre les contraintes rayonnées et propagations guidées des téléphones mobiles, à l’aide de réseaux d’ adaptation et en tenant compte de toute la chaîne de transmission radio jusqu’à l’amplificateur de puissance
Mobile telephone antenna design can be summarised as a complex “multi-objectives” problem. Hence, in the actual procedure of the mobile phone antenna design, “trial and error” method is widely used thanks to simulation software or measurement tools. Free-space bandwidth is considered as the central decision criterion. A new design approach allowing simultaneous optimization of the antenna performances in free-space and in the presence of a user is applied in this thesis. The central decision criterion is changed to the ratio of TRP / SAR. Bandwidth is compensated in other way, in particular, the matching technique. For this aim, the matching limits between the reflexion coefficient and the bandwidth with a matching network for a mono- and dual-band mobile phone antenna are deduced. The limits allow us a larger degree of freedom in the design of mobile phone antenna. This thesis leads to a practical method for obtaining a good compromise between the various constrains, by adding a matching network, with consideration on the influence of the complete radio transmission chain including the power amplifier
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Ben, Nsira Nadia. „Algorithme de recherche incrémentale d'un motif dans un ensemble de séquences d'ADN issues de séquençages à haut débit“. Thesis, Normandie, 2017. http://www.theses.fr/2017NORMR143/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous nous intéressons au problème de recherche incrémentale de motifs dans des séquences fortement similaires (On-line Pattern Matching on Highly Similar Sequences), issues de technologies de séquençage à haut débit (SHD). Ces séquences ne diffèrent que par de très petites quantités de variations et présentent un niveau de similarité très élevé. Il y a donc un fort besoin d'algorithmes efficaces pour effectuer la recherche rapide de motifs dans de tels ensembles de séquences spécifiques. Nous développons de nouveaux algorithmes pour traiter ce problème. Cette thèse est répartie en cinq parties. Dans la première partie, nous présentons un état de l'art sur les algorithmes les plus connus du problème de recherche de motifs et les index associés. Puis, dans les trois parties suivantes, nous développons trois algorithmes directement dédiés à la recherche incrémentale de motifs dans un ensemble de séquences fortement similaires. Enfin, dans la cinquième partie, nous effectuons une étude expérimentale sur ces algorithmes. Cette étude a montré que nos algorithmes sont efficaces en pratique en terme de temps de calcul
In this thesis, we are interested in the problem of on-line pattern matching in highly similar sequences, On-line Pattern Matching on Highly Similar Sequences, outcoming from Next Generation Sequencing technologies (NGS). These sequences only differ by a very small amount. There is thus a strong need for efficient algorithms for performing fast pattern matching in such specific sets of sequences. We develop new algorithms to process this problem. This thesis is partitioned into five parts. In the first part, we present a state of the art on the most popular algorithms of finding problem and the related indexes. Then, in the three following parts, we develop three algorithms directly dedicated to the on-line search for patterns in a set of highly similar sequences. Finally, in the fifth part, we conduct an experimental study on these algorithms. This study shows that our algorithms are efficient in practice in terms of computation time
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Chabanis, Manuel. „Estimation des variations de la pression motrice respiratoire à partir des mesures du débit ventilatoire : mise au point et validation d'un algorithme“. Université Joseph Fourier (Grenoble), 1992. http://www.theses.fr/1992GRE19003.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Tajany, Mostafa. „Égalisation adaptative de multitrajets dans des liaisons de télémesure à haut débit“. Nantes, 1996. http://www.theses.fr/1996NANT2002.

Der volle Inhalt der Quelle
Annotation:
Dernier-né des services de télédétection, le système commercial SPOT conçu par le Centre National des Études Spatiales (CNES) et opérationnel depuis 1986, transmet vers le sol les informations images numérisées. Pour diverses configurations du satellite, la qualité de la liaison est fortement dégradée par la présence de multi-trajet, dû aux interactions entre l'antenne d'émission et la structure du satellite. Les travaux présentés dans ce mémoire s'inscrivent dans le cadre de l'étude de l'adaptativité d'antenne bord et sol intervenant dans les liaisons de télémesure de charge utile (TMCU) à haut débit. Dans un premier temps, les conséquences du multi-trajet ont été quantifiées en terme d'interférence intersymboles et de taux d'erreurs sur les bits. On a déterminé la rejection nécessaire sur les trajets retardés pour approcher les performances nominales. Divers traitements au sol ont par la suite été envisagés sous forme d'un égaliseur. Une étude théorique des performances d'un égaliseur, menée sur une structure linéaire et sur une structure à décision dans la boucle (DFE), a permis de prédire les performances en taux d'erreurs et en erreur quadratique moyenne. Les résultats obtenus sont ceux de l'algorithme global et sont complétés par un test des autres principaux algorithmes adaptatifs. De plus, un ensemble de traitements a été simulé sur une chaine idéale et sur deux liaisons de TMCU. L'algorithme du gradient stochastique LMS a été testé sur un modèle de canal le plus probable. Les performances des structures d'égaliseur ont été élaborées sous une forme comparative. En vue d'une implantation pratique, la structure à décision dans la boucle fournit des meilleures performances avec deux coefficients dans la branche linéaire et deux coefficients dans la branche récursive DFE (2,2). Un traitement à bord du satellite a été proposé. Il consiste à adapter le diagramme de rayonnement de l'antenne active après son optimisation suivant un certain critère d'adaptation. Sur le plan matériel, en raison du grand débit numérique de transmission (50 mbit/s) de la liaison TMCU, les implémentations classiques d'un égaliseur ne peuvent pas être utilisées. Deux solutions de réalisation matérielle ont été proposées: la première est une solution hybride mêlant les techniques analogiques pour le filtrage et une approche numérique pour le calcul des coefficients. La seconde est totalement analogique. L'algorithme proposé est l'algorithme LMS intégré au démodulateur cohérent à quatre états de phase (mdp4). Cette approche a été simulée avec une structure DFE (2,2). Une étude de sensibilité aux défauts de réalisation a permis d'évaluer de façon plus approfondie la faisabilité de ces implémentations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Desrochers, Simon. „Algorithme non intrusif de localisation et de correction de distorsions dans les signaux sonores compressés à bas débits“. Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/9777.

Der volle Inhalt der Quelle
Annotation:
Des sites de visionnement de contenu audio-vidéo en temps-réel comme YouTube sont devenus très populaires. Le téléchargement des fichiers audio/vidéo consomme une quantité importante de bande passante des réseaux Internet. L’utilisation de codecs à bas débit permet de compresser la taille des fichiers transmis afin de consommer moins de bande passante. La conséquence est une diminution de la qualité de ce qui est transmis. Une diminution de qualité mène à l’apparition de défauts perceptibles dans les fichiers. Ces défauts sont appelés des artifices de compression. L’utilisation d’un algorithme de post-traitement sur les fichiers sonores pourrait augmenter la qualité perçue de la musique transmise en corrigeant certains artifices à la réception, sans toutefois consommer davantage de bande passante. Pour rehausser la qualité subjective des fichiers sonores, il est d’abord nécessaire de déterminer quelles caractéristiques dégradent la qualité perceptuelle. Le présent projet a donc pour objectif le développement d’un algorithme capable de localiser et de corriger de façon non intrusive, un artifice provoqué par des discontinuités et des incohérences au niveau des harmoniques qui dégrade la qualité objective dans les signaux sonores compressés à bas débits (8 – 12 kilobits par seconde).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Boch, Jérôme. „Effet du faible débit dose sur les technologies bipolaires“. Reims, 2003. http://www.theses.fr/2003REIMS013.

Der volle Inhalt der Quelle
Annotation:
Les technologies bipolaires jouent des rôles primordiaux dans les systèmes spatiaux soumis à des conditions radiatives. Dans un environnement ionisant, le courant de base des transistors bipolaires augmente et le gain en courant diminue. L'augmentation de la recombinaison dans la région de déplétion base-émetteur est le mécanisme principal responsable de l'accroissement du courant de base. Pour une même dose totale, de nombreuses technologies bipolaires se dégradent plus à faible débit de dose qu'à fort débit ce qui soulève un problème au niveau du durcissement. Des méthodes de prédiction de la réponse faible débit de dose, utilisant les moyens disponibles en laboratoires, telle que les irradiations en températures, ont données des résultats prometteurs pour l'identification de technologies montrant une augmentation de la dégradation à faible débit de dose. Cependant, aucun test s'appliquant à toutes les technologies bipolaires n'a été identifié. C'est dans ce cadre que s'inscrit notre travail de thèse. Ce travail consiste à étudier et à améliorer les méthodes de test actuelles dans le but d'établir un unique test applicable à toutes les technologies bipolaires. En se basant sur un travail expérimental, une explication physique des phénomènes se produisant au cours d'irradiations à températures élevées a été donnée et un modèle de dégradation a été développé. A partir de l'observation des résultats obtenus, une nouvelle approche du test de composants est proposée. Cette approche est basée sur la commutation d'un fort débit de dose vers un faible débit
Bipolar technologies play a variety of important roles in space systems where they are exposed to radiation. In an ionizing environment, the base current of bipolar transistors increases and the current gain decreases. Increased recombination in the emitter-base depletion region is the main mechanism responsible for the increased base current. Many bipolar technologies degrade more at low dose rates than at high dose rates for a given total dose what is a difficult hardness assurance challenge. Methods of predicting the low-dose-rate response using laboratory dose rates, including irradiation at high temperature, have been reasonably successful at identifying technologies that suffer from ELDRS, but it is still difficult to identify a single test for all bipolar technologies. The aim of this work is then to investigate and improve the present methods in order to establish a sigle test for all bipolar technologies. Based on experimental results, physical explanation of phenomena occurring during elevated temperature irradiations has been proposed and a model of degradation has been expanded. From the observation of all the obtained results, a new approach of the device testing, based on the switching from high dose rate to low dose rate has been proposed
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Bourque, Alexandre. „Amélioration du calcul de dose TG-43 en curiethérapie à bas débit par un algorithme de dose primaire et diffusée sur processeur graphique“. Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29312/29312.pdf.

Der volle Inhalt der Quelle
Annotation:
Les calculs de dose en curiethérapie à bas débit reposent depuis 1995 sur un formalisme qui considère le milieu irradié comme étant homogène et constitué d’eau afin de mieux accommoder les temps de calcul clinique. Ce travail présente une amélioration de ce formalisme dosimétrique issu du protocole TG-43 de l’AAPM (American Association of Physicists in Medicine), utilisé actuellement dans les systèmes de planification de traitement (SPT) clinique. Avec l’ajout d’un tracé radiologique pour tenir compte des hétérogénéités et en séparant la dose primaire de la dose diffusée, il est possible de raffiner les calculs dosimétriques. Or, cette modification au calcul le rendant plus complexe était coûteuse en temps d’exécution jusqu’à très récemment. Elle se voit matérialisée dans ce travail avec l’arrivée récente de la technologie GPGPU, les calculs scientifiques sur périphériques graphiques. En exploitant le parallélisme des calculs de dose en curiethérapie à bas débit pour les implants permanents, l’algorithme baptisé TG-43-RT pour TG-43 avec tracé de rayons (Ray-Tracing en anglais) permet d’obtenir des facteurs d’accélération de l’ordre de 103 par rapport au CPU. Seulement 0.5 s par source est requis dans une géométrie de 1003 voxels, et les dosimétries d’anatomies hétérogènes sont sensiblement améliorées. Le TG-43-RT corrige les dépôts de dose en aval des hétérogénéités et réduit les effets indésirables de l’atténuation inter-sources. Des écarts de dose de plus de 80% au-delà d’une calcification avaient de quoi influencer les HDV, or, le TG-43-RT ramène ces déviations en-deçà de l’incertitude de 8.7% (2σ) concédée par les SPT, tel qu’établi dans le TG-138. Les simulations Monte Carlo ont été employées pour servir de référence absolue à la méthode développée et quantifier les améliorations dosimétriques relatives à l’actuel calcul de dose. L’algorithme a été testé d’un point de vue clinique dans un fantôme de prostate avec des sources d’125I et dans un fantôme de sein avec des sources de 103Pd pour unifier les corrections apportées.
Brachytherapy dose calculations have been relying since 1995 on a formalism that considers the whole geometry as a homogeneous water tank. This gives the opportunity to compute dose distributions within a reasonable clinical timeframe, but with considerable approximations that can influence or even change the treatment. This work presents an upgraded version of this formalism derived from the TG-43 protocol (AAPM), currently used in actual treatment planning systems. The new algorithm includes a primary and scatter dose separation using ray-tracing operation to account for heterogeneities through the medium. These modifications to the dose calculation are very power consuming and too long for the clinical needs when executed on modern CPUs. With the GPGPU technology, a GPU-driven algorithm allows a complex handling of the anatomic heterogeneities in the dose calculation and keeps execution times below 0.5 s/seed. The algorithm was named TG-43-RT for TG-43 with Ray-Tracing and accelerations factors of three order of magnitude were obtained over a regular CPU implementation. The TG-43-RT algorithm adequatly corrects dose deposition along heterogeneities and it reduces interseed attenuation effects. Dose is scored in the medium instead of water, which also applies a severe correction for high heterogeneous medium like the breast. Deviations of more than 80% in dose deposition were obtained over calcification inside the prostate when compared to Monte Carlo simulations. This kind of deviation influences DVH shape. However, the TG-43-RT was keeping those deviations within the 8.7% uncertainty range (2σ) associated with a regular TG-43 evaluation as stated in the TG-138. Monte Carlo simulations were used as a gold standard to get an absolute dose calculation reference. The algorithm was also tested in a prostate phantom with 125I seeds and in a breast phantom with 103Pd seeds to mimic real anatomic geometries and unify the applied corrections.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Zhao, Yili. „Étude et réalisation d'un système de transmission d'images numériques à bas débit“. Nancy 1, 1989. http://www.theses.fr/1989NAN10266.

Der volle Inhalt der Quelle
Annotation:
La transmission ou le stockage d'image sont d'un grand intérêt avec le développement des communications. Les progrès technologiques obtenus dans le traitement numérique rendent aujourd'hui possible la réalisation de systèmes performants, dans lesquels la compression des données joue un rôle essentiel. Le domaine d'application de la compression du signal vidéo est très varié : vidéo-conférence, satellite, fac-similé, médical, diffusion, distribution de câble, etc. . . En pratique, les techniques de compression vidéo ne peuvent être dissociées des objectifs de l'utilisateur. L'efficacité s'analyse à partir de la qualité subjective et de la complexité désirée. La mauvaise restitution de quelques points dans l'image, par exemple, n'est pas forcément critique dans le domaine civil, mais peut être dramatique pour l'interprétation dans le domaine militaire. Il n'est donc pas possible de classer de façon générale les performances des méthodes de compression
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Dupont-Sarraute, Jean-Pascal. „Construction d'une maquette permettant de visualiser la relation pression-débit en régime oscillatoire dans les vaisseaux sanguins“. Paris 13, 2004. http://www.theses.fr/2004PA130039.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Karaouzene, Thomas. „Bioinformatique et infertilité : analyse des données de séquençage haut-débit et caractérisation moléculaire du gène DPY19L2“. Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAS041/document.

Der volle Inhalt der Quelle
Annotation:
Ces dix dernières années, l’investigation des maladies génétiques a été bouleversée par l’émergence des techniques de séquençage haut-débit. Celles-ci permettent désormais de ne plus séquencer les gènes un par un, mais d’avoir accès à l’intégralité de la séquence génomique ou transcriptomique d’un individu. La difficulté devient alors d’identifier les variants causaux parmi une multitude d’artefacts techniques et de variants bénins, pour ensuite comprendre la physiopathologie des gènes identifiés.L’application du séquençage haut débit est particulièrement prometteuse dans le champ de la génétique de l’infertilité masculine car il s’agit d’une pathologie dont l’étiologie est souvent génétique, qui est génétiquement très hétérogène et pour laquelle peu de gènes ont été identifiés. Mon travail de thèse est donc centré sur la l’infertilité et comporte deux parties majeures : l’analyse des données issues du séquençage haut débit d’homme infertiles et de modèles animaux et la caractérisation moléculaire d’un phénotype spécifique d’infertilité, laglobozoospermie.Le nombre de variants identifiés dans le cadre d’un séquençage exomique pouvant s’élever à plusieurs dizaines de milliers, l’utilisation d’un outil informatique performant est indispensable. Pour arriver à une liste de variants suffisamment restreinte pour pouvoir être interprétée, plusieurs traitements sont nécessaires. Ainsi, j’ai développé un pipeline d’analyse de données issues de séquençage haut-débit effectuant de manière successive l’intégralité des étapes de l’analyse bio-informatique, c’est-à-dire l’alignement des reads sur un génome de référence, l’appel des génotypes, l’annotation des variants obtenus ainsi que le filtrage de ceux considérés comme non pertinents dans le contexte de l’analyse. L’ensemble de ces étapes étant interdépendantes,les réaliser au sein du même pipeline permet de mieux les calibrer pour ainsi réduire le nombre d’erreurs générées. Ce pipeline a été utilisé dans cinq études au sein du laboratoire, et a permis l’identification de variants impactant des gènes candidats prometteurs pouvant expliquer le phénotype d’infertilité des patients.L’ensemble des variants retenus ont ensuite pu être validés expérimentalement.J’ai également pris part aux investigations génétiques et moléculaires permettant la caractérisation du gène DPY19L2, identifié au laboratoire et dont la délétion homozygote entraine une globozoospermie, caractériséepar la présence dans l’éjaculât de spermatozoïdes à tête ronde dépourvus d’acrosome. Pour cela, j’ai contribué à caractériser les mécanismes responsables de cette délétion récurrente, puis, en utilisant le modèle murin Dpy19l2 knock out (KO) mimant le phénotype humain, j’ai réalisé une étude comparative des transcriptomes testiculaires de souris sauvages et de souris KO Dpy19l2-/-. Cette étude a ainsi permis de mettre en évidence la dérégulation de 76 gènes chez la souris KO. Parmi ceux-ci, 23 sont impliqués dans la liaison d’acides nucléiques et de protéines, pouvant ainsi expliquer les défauts d’ancrage de l’acrosome au noyau chez les spermatozoïdes globozoocéphales.Mon travail a donc permis de mieux comprendre la globozoospermie et de développer un pipeline d’analyse bioinformatique qui a déjà permis l’identification de plus de 15 gènes de la gamétogenèse humaine impliqués dans différents phénotypes d’infertilité
In the last decade, the investigations of genetic diseases have been revolutionized by the rise of high throughput sequencing (HTS). Thanks to these new techniques it is now possible to analyze the totality of the coding sequences of an individual (exome sequencing) or even the sequences of his entire genome or transcriptome.The understanding of a pathology and of the genes associated with it now depends on our ability to identify causal variants within a plethora of technical artifact and benign variants.HTS is expected to be particularly useful in the field infertility as this pathology is expected to be highly genetically heterogeneous and only a few genes have so far been associated with it. My thesis focuses on male infertility and is divided into two main parts: HTS data analysis of infertile men and the molecular characterization of a specific phenotype, globozoospermia.Several thousands of distinct variants can be identified in a single exome, thereby using effective informatics is essential in order to obtain a short and actionable list of variants. It is for this purpose that I developed a HTS data analysis pipeline performing successively all bioinformatics analysis steps: 1) reads mapping along a reference genome, 2) genotype calling, 3) variant annotation and 4) the filtering of the variants considered as non-relevant for the analysis. Performing all these independent steps within a single pipeline is a good way to calibrate them and therefore to reduce the number of erroneous calls. This pipeline has been used in five studies and allowed the identification of variants impacting candidate genes that may explain the patients’ infertility phenotype. All these variants have been experimentally validated using Sanger sequencing.I also took part in the genetic and molecular investigations which permitted to demonstrate that the absence of the DPY192 gene induces male infertility due to globozoospermia, the presence in the ejaculate of only round-headed and acrosomeless spermatozoa. Most patients with globozoospermia have a homozygous deletion of the whole gene. I contributed to the characterization of the mechanisms responsible for this recurrent deletion, then, using Dpy19l2 knockout (KO) mice, I realized the comparative study of testicular transcriptome of wild type and Dpy19l2 -/- KO mice. This study highlighted a dysregulation of 76 genes in KO mice. Among them, 23 are involved in nucleic acid and protein binding, which may explain acrosome anchoring defaults observed in the sperm of globozoospermic patients.My work allowed a better understanding of globozoospermia and the development of a HTS data analysis pipeline. The latter allowed the identification of more than 15 human gametogenesis genes involved in different infertility phenotypes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Couraud, Benoît. „Optimisation des transferts d'énergie pour les systèmes connectés : application aux systèmes RFID communiquant en champ proche à très haut débit“. Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0572/document.

Der volle Inhalt der Quelle
Annotation:
Dans le contexte de développement de produits sans-contact communiquant à très haut débit, dît systèmes VHBR (Very High Bit Rate), il s’avère que les cartes ou passeports VHBR, télé-alimentés à partir du lecteur qui communique avec eux, sont contraints de fonctionner avec une alimentation bien plus faible que les produits communiquant à des débits standards. Pour répondre à cette problématique de manque de puissance d’alimentation, il a été nécessaire de commencer par reprendre la théorie des lignes en l'orientant de manière à ce qu'elle permette de quantifier les transferts de puissance entre une source et une charge séparées par un média quelconque. Ensuite, ce nouveau moyen de quantification des transferts de puissance a été utilisé pour faire de l'aide à la conception des lecteurs VHBR. Ensuite, ce travail de recherche se concentre sur les cartes ou passeports VHBR. En effet, pour permettre à un tel système sans contact de fonctionner de manière télé-alimentée dans un environnement où la puissance disponible est réduite, il faut optimiser sa conception. Les solutions proposées ici consistent à déterminer la géométrie des antennes inductives qui optimisent la récupération d'énergie et le transfert de puissance vers la puce d'une carte VHBR. Ainsi, les travaux présentés dans ce manuscrit apportent des solutions globales à cette problématique de récupération d'énergie dans les objets connectés que sont les systèmes sans contact, en décrivant des méthodes de conception qui permettent d'une part de limiter les pertes de puissance au sein des lecteurs VHBR, et d'autre part d'optimiser la récupération d'énergie au sein des cartes VHBR
The research work presented in this thesis provides solutions to help industrials to better design RFID readers and RFID tags that implement VHBR (Very High Bit Rate) protocols. Indeed, VHBR technology has a large drawback on the functionning of RFID tags as it lowers the energy available to supply the tag. First, this research work focuses on RFID reader design, and especially matching networks design. After describing a new way of assessing power transfer in Radio Frequency systems, it is shown that T matching networks as thoses proposed in ISO/IEC 10373-6 give the best results in terms of power transfer and signal integrity. Thus, a design method is proposed to correctly choose the three T matching network components that will optimize the power transfer and still meet the signal integrity requirements.Second, this thesis will focus on the design of RFID tags, by describing a new tag's antenna design method that optimize the energy harvested by the antenna and meanwhile reduce the power reflections between the antenna and the tag's chip. This design method is based on new explicit formula that compute a rectangular planar antenna inductance as a function of its geometric characteristics. This method showed very accurate results, and can become an interesting tool for industrials to speed up and optimize their antenna design procedure.Finally, a platform that measures RFID chip's impedance in every state of the chip has been designed, even during load modulation communication. The accuracy of this tool and its importance in order to achieve a good antenna design confer it a great usefulness
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Couraud, Benoît. „Optimisation des transferts d'énergie pour les systèmes connectés : application aux systèmes RFID communiquant en champ proche à très haut débit“. Electronic Thesis or Diss., Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0572.

Der volle Inhalt der Quelle
Annotation:
Dans le contexte de développement de produits sans-contact communiquant à très haut débit, dît systèmes VHBR (Very High Bit Rate), il s’avère que les cartes ou passeports VHBR, télé-alimentés à partir du lecteur qui communique avec eux, sont contraints de fonctionner avec une alimentation bien plus faible que les produits communiquant à des débits standards. Pour répondre à cette problématique de manque de puissance d’alimentation, il a été nécessaire de commencer par reprendre la théorie des lignes en l'orientant de manière à ce qu'elle permette de quantifier les transferts de puissance entre une source et une charge séparées par un média quelconque. Ensuite, ce nouveau moyen de quantification des transferts de puissance a été utilisé pour faire de l'aide à la conception des lecteurs VHBR. Ensuite, ce travail de recherche se concentre sur les cartes ou passeports VHBR. En effet, pour permettre à un tel système sans contact de fonctionner de manière télé-alimentée dans un environnement où la puissance disponible est réduite, il faut optimiser sa conception. Les solutions proposées ici consistent à déterminer la géométrie des antennes inductives qui optimisent la récupération d'énergie et le transfert de puissance vers la puce d'une carte VHBR. Ainsi, les travaux présentés dans ce manuscrit apportent des solutions globales à cette problématique de récupération d'énergie dans les objets connectés que sont les systèmes sans contact, en décrivant des méthodes de conception qui permettent d'une part de limiter les pertes de puissance au sein des lecteurs VHBR, et d'autre part d'optimiser la récupération d'énergie au sein des cartes VHBR
The research work presented in this thesis provides solutions to help industrials to better design RFID readers and RFID tags that implement VHBR (Very High Bit Rate) protocols. Indeed, VHBR technology has a large drawback on the functionning of RFID tags as it lowers the energy available to supply the tag. First, this research work focuses on RFID reader design, and especially matching networks design. After describing a new way of assessing power transfer in Radio Frequency systems, it is shown that T matching networks as thoses proposed in ISO/IEC 10373-6 give the best results in terms of power transfer and signal integrity. Thus, a design method is proposed to correctly choose the three T matching network components that will optimize the power transfer and still meet the signal integrity requirements.Second, this thesis will focus on the design of RFID tags, by describing a new tag's antenna design method that optimize the energy harvested by the antenna and meanwhile reduce the power reflections between the antenna and the tag's chip. This design method is based on new explicit formula that compute a rectangular planar antenna inductance as a function of its geometric characteristics. This method showed very accurate results, and can become an interesting tool for industrials to speed up and optimize their antenna design procedure.Finally, a platform that measures RFID chip's impedance in every state of the chip has been designed, even during load modulation communication. The accuracy of this tool and its importance in order to achieve a good antenna design confer it a great usefulness
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Kopylova, Evguenia. „Algorithmes bio-informatiques pour l'analyse de données de séquençage à haut débit“. Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2013. http://tel.archives-ouvertes.fr/tel-00919185.

Der volle Inhalt der Quelle
Annotation:
Nucleotide sequence alignment is a method used to identify regions of similarity between organisms at the genomic level. In this thesis we focus on the alignment of millions of short sequences produced by Next-Generation Sequencing (NGS) technologies against a reference database. Particularly, we direct our attention toward the analysis of metagenomic and metatranscriptomic data, that is the DNA and RNA directly extracted for an environment. Two major challenges were confronted in our developed algorithms. First, all NGS technologies today are susceptible to sequencing errors in the form of nucleotide substitutions, insertions and deletions and error rates vary between 1-15%. Second, metagenomic samples can contain thousands of unknown organisms and the only means of identifying them is to align against known closely related species. To overcome these challenges we designed a new approximate matching technique based on the universal Levenshtein automaton which quickly locates short regions of similarity (seeds) between two sequences allowing 1 error of any type. Using seeds to detect possible high scoring alignments is a widely used heuristic for rapid sequence alignment, although most existing software are optimized for performing high similarity searches and apply exact seeds. Furthermore, we describe a new indexing data structure based on the Burst trie which optimizes the search for approximate seeds. We demonstrate the efficacy of our method in two implemented software, SortMeRNA and SortMeDNA. The former can quickly filter ribosomal RNA fragments from metatranscriptomic data and the latter performs full alignment for genomic and metagenomic data.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie