Letteratura scientifica selezionata sul tema "Algorithme d'adaptation de débit"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Algorithme d'adaptation de débit".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "Algorithme d'adaptation de débit"

1

Lavoie, Marc-Alexandre, e Matthieu Touchette. "Évaluation de la pertinence de l’application de l’algorithme d’estimation du risque cardiaque périopératoire de la Société canadienne de cardiologie publié en 2016 chez les patients subissant une chirurgie élective non cardiaque avec insuffisance rénale chronique de stade 3b et plus". Canadian Journal of General Internal Medicine 17, n. 3 (15 agosto 2022): 24–32. http://dx.doi.org/10.22374/cjgim.v17i3.590.

Testo completo
Abstract (sommario):
RésuméEn 2016, la Société canadienne de cardiologie (SCC) a publié de nouvelles lignes directrices périopératoires s’appliquant aux patients qui doivent subir une intervention chirurgicale non cardiaque. Elle propose, entre autres, un algorithme décisionnel d’estimation du risque cardiaque périopératoire et de surveillance post-opératoire chez les patients subissant une chirurgie élective non cardiaque. Or, cet algorithme pourrait être moins pertinent à appliquer chez les patients avec une insuffisance rénale chronique (IRC) de stade 3b et plus (débit de filtration glomérulaire estimé (DGFe) < 45 mL/min/1,73m2) subissant une chirurgie élective non cardiaque. De fait, dans la présente étude, 145 sur 249 patients avec une IRC de stade 3b et plus, soit 58,2% (IC 95% : 51%–64%, p = 0,011) ont présenté un dosage préopératoire de NT-proBNP ≥ 300 mg/L. Parmi ces patients, 71,0% ont eu un dosage de troponines postopératoire complété. Bien que 24,3% d’entre eux aient subi un Myocardial Injury after Noncardiac Surgery (MINS), seulement 7,8% de ces patients ont bénéficié d’une intensification de leur thérapie antiplaquettaire ou hypolipidémiante afin de réduire leur mortalité à 30 jours postopératoire. La pertinence de l’application de cet algorithme décisionnel pourrait donc être remise en question chez les patients avec une IRC de stade 3b et plus, notamment quant au rapport coût-avantage. AbstractIn 2016, the Canadian Cardiovascular Society (CCS) released new perioperative guidelines for patients undergoing noncardiac surgery. The guidelines push on, among other things, a tree algorithm allowing estimation of perioperative cardiac risk and postoperative monitoring in patients undergoing elective noncardiac surgery. However, little is known about applying this algorithm to patients with stages 3b-5 chronic kidney disease (CKD) undergoing elective noncardiac surgery. In fact, the present study shows that 145 out of 249 patients with stages 3b-5 CKD (58.2% [95% CI: 51%-64%, p = 0.011]) presented preoperative NT-proBNP levels ≥ 300 mg/L. Of these 145 patients, 103 participants (71.0%) had a postoperative troponin measurement. Although 25 patients (24.3%) of the latter underwent myocardial injury after noncardiac surgery (MINS), only 8 patients (7.8%) benefited from a treatment intensification of their antiplatelet or lipid-lowering therapy to reduce mortality within 30 days following surgery. The CCS’ algorithm’s relevance can therefore be called into question in patients with stages 3b-5 CKD, particularly in regard to the benefit-cost ratio.
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Touleimat, M., E. Chajon, I. Dumas, J. Coulot, E. Lessard, J. Pouliot, D. Lefkopoulos e C. Haie-Meder. "Évaluation d'un algorithme de planification inverse pour la curiethérapie de débit de dose pulsé (PDR) dans les cancers du col utérin". Cancer/Radiothérapie 10, n. 6-7 (novembre 2006): 519. http://dx.doi.org/10.1016/j.canrad.2006.09.071.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

HARINAIVO, A., H. HAUDUC e I. TAKACS. "Anticiper l’impact de la météo sur l’influent des stations d’épuration grâce à l’intelligence artificielle". Techniques Sciences Méthodes 3 (20 marzo 2023): 33–42. http://dx.doi.org/10.36904/202303033.

Testo completo
Abstract (sommario):
Le changement climatique a pour conséquence l’apparition de forts événements pluvieux de plus en plus fréquents, occasionnant de fortes variations de débit et de concentrations à l’influent des stations d’épuration. La connaissance des risques d’orage et des débits potentiels plusieurs heures ou plusieurs jours en avance permettrait d’anticiper les adaptations opérationnelles pour préparer la station et protéger les différents ouvrages des risques de défaillance. Dans cette étude, les données météorologiques (pluies, température, vents, humidités, précipitations…) et l’historique des données d’influent de la station sont utilisés pour entraîner un algorithme d’intelligence artificielle, d’apprentissage automatique et d’apprentissage profond pour prédire les débits entrants sur la station jusqu’à une semaine en avance. Trois jeux de données journalières et horaires, de 1 à 3 ans, sont utilisés pour entraîner un modèle de Forêt aléatoire à 30 arbres, un modèle LSTM (long short-term memory) et un modèle GRU (gate recurrent unit) à trois couches de 100 neurones suivis chacun d’un dropout de 20 % et une couche de sortie entièrement connectée. Les données sont préalablement nettoyées pour supprimer les valeurs aberrantes et sont réparties à 80 % pour les données pour l’apprentissage et 20 % pour les données de test afin d’obtenir des modèles avec les meilleures prédictions. Les algorithmes utilisés dans cette étude sont simples et détectent bien les pics. La durée de l’entraînement sur les données de trois ans se fait en moins de deux minutes pour la Forêt aléatoire et en moins d’une demi-heure pour les réseaux de neurones LSTM et GRU. Les résultats montrent que les données horaires et la prise en compte de l’effet de l’historique par l’utilisation des réseaux de neurones récurrents LSTM et GRU permettent d’obtenir une meilleure prédiction des débits d’influent. Les séries de données plus longues permettent également un meilleur apprentissage des algorithmes et une meilleure prédiction du modèle.
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Ballay, D., e J. F. Blais. "Le traitement des eaux usées". Revue des sciences de l'eau 11 (12 aprile 2005): 77–86. http://dx.doi.org/10.7202/705331ar.

Testo completo
Abstract (sommario):
L'article présente brièvement l'état de l'épuration des effluents des collectivités en France et au Québec. Il souligne ensuite quelques changements importants intervenus depuis dix ans dans le monde grâce aux progrès de la recherche et qui pourraient marquer l'avenir. En France, 95 % des agglomérations de plus de 10 000 équivalents-habitants disposent d'une station d'épuration. Le rythme de construction a atteint 730 installations nouvelles dans l'année 1976 mais il est redescendu à moins de 300/an. Sur les 11 310 stations de plus de 200 équivalents-habitants recensées, 5 % réalisent seulement un traitement primaire et la moitié en nombre, représentant plus de 60 % de la capacité de traitement utilisent le procédé des boues activées. Les investissements à réaliser entre 1994 et 2005 pour satisfaire aux exigences de la directive européenne du 21 mai 1991 sont évalués à environ 36 milliards de francs français, correspondant à la création de capacités de traitement supplémentaires de 17 millions d'équivalents-habitants et à des améliorations plus ou moins importantes d'un grand nombre de stations existantes. Au Québec, la construction des stations d'épuration s'est faite essentiellement dans les années 80 et 90. Aujourd'hui, près de 80 % de la population est desservie par des installations d'épuration, soit environ 4,9 millions d'habitants pour un débit hydraulique de 5,3 millions de m3/j. Parmi les 450 ouvrages municipaux ceux des Communautés Urbaines de Montréal et de Québec représentent, à eux seuls, près de 60 % de la capacité installée. Les stations physico-chimiques, bien que peu nombreuses, sont les plus importantes (6 stations pour 2,28 millions d'habitants) suivies par les boues activées (40 stations pour 0,69 million d'habitants) et la biofiltration (9 stations pour 0,75 million d'habitants). Environ 320 stations, de dimension plus modeste utilisent des étangs aérés, desservant en moyenne une population de 3 500 habitants. Sur le plan de l'évolution des techniques, la décennie écoulée a vu apparaître ou se confirmer des évolutions qui marqueront sans doute profondément la conception et l'exploitation des stations d'épuration dans les années à venir : - l'objectif maintenant presque généralisé d'éliminer les nutriments azote et phosphore et le développement rapide des techniques correspondantes; - la prise de conscience de l'importance des flux polluants véhiculés par les eaux pluviales et un début d'adaptation des stations d'épuration; - le développement limité mais réel des traitements anaérobies qui ont survécu à la démobilisation des surlendemains de la crise énergétique; - le fort développement des systèmes d'épuration biologique à culture fixée et notamment des biofiltres; - l'apparition prometteuse des membranes dans les systèmes d'épuration biologique permettant d'envisager de nouveaux objectifs de traitement; - la prise en compte de la fiabilité des systèmes d'épuration avec un poids de plus en plus important par rapport aux performances de pointe - une vision plus intégrée de la prévention des pollutions tant dans l'industrie (technologies propres) que dans les agglomérations (gestion intégrée de l'ensemble réseau-station d'épuration).
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Sardet, Alix, Nicolas Estre, Daniel Eck, Frédéric Moutet e Emmanuel Payan. "Extension algorithmique du champ de vue tomographique à des objets de toutes dimensions". e-journal of nondestructive testing 28, n. 9 (settembre 2023). http://dx.doi.org/10.58286/28512.

Testo completo
Abstract (sommario):
Le Laboratoire de Mesures Nucléaires de l’institut IRESNE du CEA (centre de Cadarache) réalise dans la cellule d’irradiation CINPHONIE (INB CHICADE) des expertises radiographiques et tomographiques sur des objets denses et/ou de grandes dimensions. Pour ce faire, la cellule est équipée d’un accélérateur linéaire de type SATURNE permettant la production de photons ayant une énergie allant de 9 à 21 MeV (débit de dose maximal à 1 m d’environ 62 Gy/mn). Un banc mécanique de haute précision et d’une capacité de 5 tonnes permet les mouvements en translation (horizontale et verticale) et en rotation d’objets ayant un diamètre maximal de 1,50 m. La détection est assurée au moyen d’un détecteur dit « Grand Champ », composé d’un écran scintillateur de Gadox monté sur un renforçateur en tantale (80 x 60 cm²) et filmé, via un renvoi d’angle, par une caméra sCMOS bas bruit. Compte-tenu des contraintes géométriques de la cellule, le champ de vue du tomographe permettait de mesurer au maximum des objets de diamètre 102 cm en demi-champ. En 2018, une nouvelle méthode de traitement des projections a permis d’étendre le champ de vue à des objets de toute taille. Cette extension du champ de vue est effectuée en enregistrant, pour une coupe tomographique donnée, plusieurs séries de rotation sur 2π obtenues en décalant le centre de rotation de l’objet. Les projections résultantes sont ensuite fusionnées puis utilisées comme données d’entrée des algorithmes de reconstruction. Celle-ci est effectuée au moyen du logiciel RTK (algorithme FDK). Après une phase de validation par simulation au moyen du logiciel MODHERATO, développé au sein du laboratoire, la méthode a été appliquée à divers objets de gros volumes et de densité variées tels que des coques de déchets nucléaires bétonnés (Ø110 cm × 130 cm, d = 2,5) ou encore le crâne du Mammouth de Durfort (110 cm × 110 cm, d = 1,5) appartenant au Museum National d’Histoire Naturelle. Les dimensions maximales des objets sont ainsi définies par les capacités physiques (et non algorithmiques) du système tomographique à disposer d’un rapport signal sur bruit suffisant. Ce rapport dépend uniquement des caractéristiques du faisceau ainsi que du diamètre et de la densité des objets tomographiés.
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Cheng, Chun-Tian, Xin-Yu Wu e K. W. Chau. "Multiple criteria rainfall–runoff model calibration using a parallel genetic algorithm in a cluster of computers / Calage multi-critères en modélisation pluie–débit par un algorithme génétique parallèle mis en œuvre par une grappe d'ordinateurs". Hydrological Sciences Journal 50, n. 6 (dicembre 2005). http://dx.doi.org/10.1623/hysj.2005.50.6.1069.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Tesi sul tema "Algorithme d'adaptation de débit"

1

Kanj, Hind. "Zero-Latency strategies for video transmission using frame extrapolation". Electronic Thesis or Diss., Valenciennes, Université Polytechnique Hauts-de-France, 2024. https://ged.uphf.fr/nuxeo/site/esupversions/53e0c0d3-296e-477f-9adc-2dbc315128f5.

Testo completo
Abstract (sommario):
La demande de diffusion sans interruption de contenu vidéo et de haute qualité avec une latence minimale est essentielle dans les applications telles que la diffusion sportive et le contrôle de systèmes à distance. Cependant, la diffusion vidéo reste exposée à des défis en raison des caractéristiques variables des canaux de communication, qui peuvent avoir un impact sur la qualité de l'expérience en termes de qualité vidéo et de latence de bout en bout (le temps entre l'acquisition de la vidéo à l'émetteur et son affichage au récepteur).L'objectif de cette thèse est d'aborder le problème des applications en temps réel avec transmission unicast du serveur au client, telles que les applications de contrôle à distance, tout en maintenant une bonne qualité. Nous testons l'efficacité d'une technique récente d'apprentissage profond pour la compensation de la latence dans le schéma de transmission vidéo et son impact sur la qualité. Cette technique prédit les images futures à l'aide des images précédentes disponibles, ce qui permet d'afficher les images au moment voulu. Les résultats montrent que l'extrapolation est prometteuse, en particulier pour les contenus avec peu d'informations temporelles. Cependant, elle doit encore être améliorée en termes de qualité, de prédiction à long terme et de délai d'extrapolation.Plusieurs études se concentrent sur l'intégration d'un système hybride numérique-analogique pour améliorer la qualité perceptive, profitant des avantages des méthodes numériques et analogiques. Nous étudions l'efficacité d'un schéma hybride à faible latence en termes de réduction de la latence tout en maintenant une qualité vidéo élevée. Les résultats montrent que le système hybride améliore la qualité de la vidéo reçue dans la plupart des cas. Cependant, les artefacts d'extrapolation surpassent les artefacts d'encodage et masquent les avantages des schémas hybrides. Ainsi, l'amélioration des performances des schémas hybrides repose sur l'amélioration de l'extrapolation.En plus, les méthodes de diffusion adaptative HTTP ont prouvé leur efficacité pour améliorer la qualité de l'expérience en ajustant le débit d'encodage en fonction des conditions du canal. La plupart de ces algorithmes sont utilisés au client, ce qui pose des problèmes pour répondre aux exigences de latence des applications en temps réel. Dans ces applications, les vidéos sont acquises, compressées et transmises à partir de dispositifs jouant le rôle de serveurs. Donc, ces méthodes pilotées par le client ne conviennent pas à cause de la variabilité des conditions du canal. En plus, la prise de décision se fait avec une périodicité de l'ordre de la seconde, ce qui n'est pas assez réactif lorsque le serveur se déplace, ce qui entraîne des retards importants. Il est donc important d'utiliser une granularité d'adaptation plus fine. Nous visons à contrôler la latence de bout en bout tout en garantissant une qualité d'expérience élevée. Un contrôle du débit d'encodage au niveau d'image à l'émetteur est combiné à une extrapolation au récepteur pour compenser le retard de bout en bout. Le contrôle du débit au niveau d'image permet au système de s'adapter aux variations soudaines des conditions du canal. Un retard apparent de bout en bout nul peut être atteint au prix d'une perte de qualité du signal. Les algorithmes existants tentent d'optimiser les sources individuelles de retard dans le schéma de diffusion vidéo, mais pas de réduire la latence de bout en bout et d'atteindre une latence nulle. Un «Model Predictive Control» impliquant le niveau de mémoire tampon à l'émetteur et l'estimation du débit canal est utilisée pour trouver la valeur optimale du débit d'encodage pour chaque image. Il ajuste dynamiquement le compromis entre le débit de codage et l'horizon d'extrapolation, tout en prévoyant l'impact de la décision relative au débit d'encodage sur les images futures, pour améliorer la qualité d'expérience
The demand for seamless, high-quality video content delivery with minimal latency is paramount in today's applications such as sports broadcasting, videoconferencing, and remote system control. However, video delivery still faces challenges due to unpredictable nature of communication channels. The variations in channel characteristics can impact the quality of experience in terms of content quality and End-To-End latency - the time elapsed between video acquisition at the transmitter and its display at the receiver.The aim of this thesis is to address the issue of real time applications with unicast transmission from server to client such as remote control applications, while maintaining a good quality. We test the effectiveness of a recent deep learning technique for latency compensation in the video transmission scheme and its impact on video quality. This technique predicts future frames using available previous frames, allowing the end-user to display the images at the desired time. The results demonstrate the promise of extrapolation, especially for content with low temporal information. However, it still needs to be improved in terms of quality, long-term prediction, and extrapolation delay.Various studies focus on the integration of a hybrid digital-analog scheme to improve the perceptual quality, taking advantage of the strengths of both digital and analog methods. We study the effectiveness of low-latency hybrid scheme in term of reducing latency while maintaining high video quality. The results show that the hybrid scheme improves the quality of the received video in most cases. However, the extrapolation artifacts outweigh encoding artifacts and mask the advantages of hybrid schemes. Thus, the improvement in hybrid scheme performance relies on the enhancement of extrapolation.Moreover, HTTP Adaptive Streaming methods have proven their effectiveness in improving the quality of experience by dynamically adjusting the encoding rate based on channel conditions. However, most of these adaptation algorithms are implemented at the client level, which poses challenges in meeting latency requirements for real time applications. In addition, in real time application, videos are acquired, compressed, and transmitted from the device acting as the server. Therefore, client-driven rate adaptation approaches are not suitable due to the variability of the channel characteristics. Moreover, in these methods, the decision-making is done with a periodicity of the order of a second, which is not reactive enough when the server is moving, leading to significant delays. Therefore, it is important to use a finer adaptation granularity in order to reduce the End-To-End delay. We aim to control the End-To-End latency during video delivery while ensuring a high quality of experience. A frame-level encoder rate control at the transmitter side is combined with a frame extrapolation at the receiver side to compensate the End-To-End delays. Frame-level rate control enables the system to adapt to sudden variations of channel characteristics. Null apparent End-To-End delay can be reached at the price of some signal quality. To the best of our knowledge, state-of-the-art algorithms try to optimize the individual sources of delay in the video delivery scheme, but not to reduce the whole End-To-End latency and achieve zero latency. A model predictive control approach involving the buffer level at the transmitter and the throughput estimation is used to find the optimal value of encoding rate for each frame. It dynamically adjusts the trade-off between the encoding rate and the extrapolation horizon at the receiver, while predicting the impact of the encoding rate decision on future frames, thus providing the best quality of experience
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Tronc, François. "Mécanismes d'adaptation vasculaire au débit : rôle de l'oxyde nitrique et des métalloprotéases". Paris 7, 2001. http://www.theses.fr/2001PA077264.

Testo completo
Abstract (sommario):
Le s vaisseaux sanguins soumis a un hyperdebit s'adaptent en se dilatant. Ce remodelage de la paro arterielle est êndothêlium-dêpêndant et permet de normaliser la contrainte de cisaillement. Nous avons analyse les mecanismes d'adaptation vasculaire dans un modele d'augmentation chronique du flux sanguin : la fistule carotido-jugulaire chez le lapin. Dans un groupe temoin, la carotide fistulisee s'est dilatee avec histologiquêmênt accroissement de la surface de la media et fragmentation de la limitante elastique interne. Ce remodelage adaptatif a ete bloque par inhibition de la synthese de no nous avons analyse l'implication des mêtalloproteases dans cette adaptation. L'etude zymographique precoce met en evidence l'apparition de deux gelatinases (mmp2 activee , pro-mmp9), dans la paroi de la carotide fistulisee. La mmp2 activee est absente et la pro-mmp9 reduite lors de l'inhibition des metalloproteases par le batimastatou la doxicycline. Ce resultat est correle avec l'absence de dilatation du vaisseau et de fragmentation des fibres elastiques. Le blocage de la synthese du no a bloque l'activation des metalloproteases par le flux et l'adaptation des vaisseaux. Ces resultats suggerent que les metalloproteases sont indispensables a l'adaptation vasculaire et sont activee s par le no synthetise en reponse a un cisaillement accru. L'anomalie de naissance de la coronaire gauche a partir de l'artere pulmonaire realise un modele de shunt aorto-pulmonairê via les coronaires. Elle nous a permis d'etudier la coronaire droite soumise a un hyperdebitchez 10 patients. Malgre un flux considerable, la dilatation arterielle coronarienne a permis de normaliser le cisaillement
F low-induced changes in vessel caliber tend to restore bas eline wall shear stress and have been reported to be endothelium dependent. To investigate the role of ëndothelium derived nitric oxide in the adaptive increase in artery diameter in response to a chronic increase in blood flowa carotido-jugular arteriovenous fistula was constructed in rabbits. The diameter of the flow-loaded artery increased significantly to normalize wall shear stress. We found a larger increase in the medial cross sectional area associated with an increased number of smooth muscle cells and tears of the internal elastic lamina. This adaptive increase was abolished in animals in whom no s ynthesis was inhibited. We investigate the potential role of matrix metalloproteinases in flow-induced vascular remodêling. Three days aftêr the construction of the arteriove nous fistula gelatin zymography showed a significant increase in active mmp-2 and pro-mmp-9. In further experiments mmp activity was inhibited b y treatment with doxicycline or batimastat and active mmp-2 was abolished and pro-mmp-9 reduced. Furthermore both increased arterial diameter and internal elastic lamina fragmentation were abolished. Mmp activites were significantl y decreased in carotid arteries of no synthase bloqued animals suggesting that blood flow-induced nitric oxide participates in mmp activation. Anomalous origin of the left coronar y artery from the pulmonary artery represents an aorto-pulmonary shunt through coronar y arteries. Despite a sustained increase in blood flow, right coronary artery increase in diameter to normalise wall shear stress
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Li, Yiqun. "Contribution à l'optimisation des performances d'antennes de téléphones mobiles à l'aide de techniques d'adaptation". Cergy-Pontoise, 2009. http://biblioweb.u-cergy.fr/theses/09CERG0429.pdf.

Testo completo
Abstract (sommario):
La conception d’antenne d’un téléphone mobile est un problème « multi-objectifs » complexe. De ce fait, la procédure actuelle de conception d’antennes de téléphones mobiles intègre toujours une phase importante de « trial et error » en utilisant des logiciels de simulation numérique ou des outils de mesure. La bande passante en espace libre est souvent considérée comme le critère de décision central. Une nouvelle méthode permettant d’optimiser simultanément les performances en espace libre et en présence de fantôme était appliquée. Il s’agissait de changer le critère de décision central en mettant l’accent sur le rapport TRP / DAS, et de rattraper la bande passante par d’autres moyens, plus particulièrement focalisée sur l’aspect de la technique de l’adaptation. A cette fin, les limites d’adaptation entre le coefficient de réflexion et la bande passante après l’ajout d’un circuit d’adaptation pour un téléphone mobile mono- et bi-bande ont été déduites. Ces limites donnent une idée des degrés de liberté dans la conception d’antenne d’un téléphone mobile. Cette thèse a donc abouti sur une méthode pratique pour obtenir un bon compromis entre les contraintes rayonnées et propagations guidées des téléphones mobiles, à l’aide de réseaux d’ adaptation et en tenant compte de toute la chaîne de transmission radio jusqu’à l’amplificateur de puissance
Mobile telephone antenna design can be summarised as a complex “multi-objectives” problem. Hence, in the actual procedure of the mobile phone antenna design, “trial and error” method is widely used thanks to simulation software or measurement tools. Free-space bandwidth is considered as the central decision criterion. A new design approach allowing simultaneous optimization of the antenna performances in free-space and in the presence of a user is applied in this thesis. The central decision criterion is changed to the ratio of TRP / SAR. Bandwidth is compensated in other way, in particular, the matching technique. For this aim, the matching limits between the reflexion coefficient and the bandwidth with a matching network for a mono- and dual-band mobile phone antenna are deduced. The limits allow us a larger degree of freedom in the design of mobile phone antenna. This thesis leads to a practical method for obtaining a good compromise between the various constrains, by adding a matching network, with consideration on the influence of the complete radio transmission chain including the power amplifier
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Ben, Nsira Nadia. "Algorithme de recherche incrémentale d'un motif dans un ensemble de séquences d'ADN issues de séquençages à haut débit". Thesis, Normandie, 2017. http://www.theses.fr/2017NORMR143/document.

Testo completo
Abstract (sommario):
Dans cette thèse, nous nous intéressons au problème de recherche incrémentale de motifs dans des séquences fortement similaires (On-line Pattern Matching on Highly Similar Sequences), issues de technologies de séquençage à haut débit (SHD). Ces séquences ne diffèrent que par de très petites quantités de variations et présentent un niveau de similarité très élevé. Il y a donc un fort besoin d'algorithmes efficaces pour effectuer la recherche rapide de motifs dans de tels ensembles de séquences spécifiques. Nous développons de nouveaux algorithmes pour traiter ce problème. Cette thèse est répartie en cinq parties. Dans la première partie, nous présentons un état de l'art sur les algorithmes les plus connus du problème de recherche de motifs et les index associés. Puis, dans les trois parties suivantes, nous développons trois algorithmes directement dédiés à la recherche incrémentale de motifs dans un ensemble de séquences fortement similaires. Enfin, dans la cinquième partie, nous effectuons une étude expérimentale sur ces algorithmes. Cette étude a montré que nos algorithmes sont efficaces en pratique en terme de temps de calcul
In this thesis, we are interested in the problem of on-line pattern matching in highly similar sequences, On-line Pattern Matching on Highly Similar Sequences, outcoming from Next Generation Sequencing technologies (NGS). These sequences only differ by a very small amount. There is thus a strong need for efficient algorithms for performing fast pattern matching in such specific sets of sequences. We develop new algorithms to process this problem. This thesis is partitioned into five parts. In the first part, we present a state of the art on the most popular algorithms of finding problem and the related indexes. Then, in the three following parts, we develop three algorithms directly dedicated to the on-line search for patterns in a set of highly similar sequences. Finally, in the fifth part, we conduct an experimental study on these algorithms. This study shows that our algorithms are efficient in practice in terms of computation time
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Chabanis, Manuel. "Estimation des variations de la pression motrice respiratoire à partir des mesures du débit ventilatoire : mise au point et validation d'un algorithme". Université Joseph Fourier (Grenoble), 1992. http://www.theses.fr/1992GRE19003.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Tajany, Mostafa. "Égalisation adaptative de multitrajets dans des liaisons de télémesure à haut débit". Nantes, 1996. http://www.theses.fr/1996NANT2002.

Testo completo
Abstract (sommario):
Dernier-né des services de télédétection, le système commercial SPOT conçu par le Centre National des Études Spatiales (CNES) et opérationnel depuis 1986, transmet vers le sol les informations images numérisées. Pour diverses configurations du satellite, la qualité de la liaison est fortement dégradée par la présence de multi-trajet, dû aux interactions entre l'antenne d'émission et la structure du satellite. Les travaux présentés dans ce mémoire s'inscrivent dans le cadre de l'étude de l'adaptativité d'antenne bord et sol intervenant dans les liaisons de télémesure de charge utile (TMCU) à haut débit. Dans un premier temps, les conséquences du multi-trajet ont été quantifiées en terme d'interférence intersymboles et de taux d'erreurs sur les bits. On a déterminé la rejection nécessaire sur les trajets retardés pour approcher les performances nominales. Divers traitements au sol ont par la suite été envisagés sous forme d'un égaliseur. Une étude théorique des performances d'un égaliseur, menée sur une structure linéaire et sur une structure à décision dans la boucle (DFE), a permis de prédire les performances en taux d'erreurs et en erreur quadratique moyenne. Les résultats obtenus sont ceux de l'algorithme global et sont complétés par un test des autres principaux algorithmes adaptatifs. De plus, un ensemble de traitements a été simulé sur une chaine idéale et sur deux liaisons de TMCU. L'algorithme du gradient stochastique LMS a été testé sur un modèle de canal le plus probable. Les performances des structures d'égaliseur ont été élaborées sous une forme comparative. En vue d'une implantation pratique, la structure à décision dans la boucle fournit des meilleures performances avec deux coefficients dans la branche linéaire et deux coefficients dans la branche récursive DFE (2,2). Un traitement à bord du satellite a été proposé. Il consiste à adapter le diagramme de rayonnement de l'antenne active après son optimisation suivant un certain critère d'adaptation. Sur le plan matériel, en raison du grand débit numérique de transmission (50 mbit/s) de la liaison TMCU, les implémentations classiques d'un égaliseur ne peuvent pas être utilisées. Deux solutions de réalisation matérielle ont été proposées: la première est une solution hybride mêlant les techniques analogiques pour le filtrage et une approche numérique pour le calcul des coefficients. La seconde est totalement analogique. L'algorithme proposé est l'algorithme LMS intégré au démodulateur cohérent à quatre états de phase (mdp4). Cette approche a été simulée avec une structure DFE (2,2). Une étude de sensibilité aux défauts de réalisation a permis d'évaluer de façon plus approfondie la faisabilité de ces implémentations
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Desrochers, Simon. "Algorithme non intrusif de localisation et de correction de distorsions dans les signaux sonores compressés à bas débits". Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/9777.

Testo completo
Abstract (sommario):
Des sites de visionnement de contenu audio-vidéo en temps-réel comme YouTube sont devenus très populaires. Le téléchargement des fichiers audio/vidéo consomme une quantité importante de bande passante des réseaux Internet. L’utilisation de codecs à bas débit permet de compresser la taille des fichiers transmis afin de consommer moins de bande passante. La conséquence est une diminution de la qualité de ce qui est transmis. Une diminution de qualité mène à l’apparition de défauts perceptibles dans les fichiers. Ces défauts sont appelés des artifices de compression. L’utilisation d’un algorithme de post-traitement sur les fichiers sonores pourrait augmenter la qualité perçue de la musique transmise en corrigeant certains artifices à la réception, sans toutefois consommer davantage de bande passante. Pour rehausser la qualité subjective des fichiers sonores, il est d’abord nécessaire de déterminer quelles caractéristiques dégradent la qualité perceptuelle. Le présent projet a donc pour objectif le développement d’un algorithme capable de localiser et de corriger de façon non intrusive, un artifice provoqué par des discontinuités et des incohérences au niveau des harmoniques qui dégrade la qualité objective dans les signaux sonores compressés à bas débits (8 – 12 kilobits par seconde).
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Boch, Jérôme. "Effet du faible débit dose sur les technologies bipolaires". Reims, 2003. http://www.theses.fr/2003REIMS013.

Testo completo
Abstract (sommario):
Les technologies bipolaires jouent des rôles primordiaux dans les systèmes spatiaux soumis à des conditions radiatives. Dans un environnement ionisant, le courant de base des transistors bipolaires augmente et le gain en courant diminue. L'augmentation de la recombinaison dans la région de déplétion base-émetteur est le mécanisme principal responsable de l'accroissement du courant de base. Pour une même dose totale, de nombreuses technologies bipolaires se dégradent plus à faible débit de dose qu'à fort débit ce qui soulève un problème au niveau du durcissement. Des méthodes de prédiction de la réponse faible débit de dose, utilisant les moyens disponibles en laboratoires, telle que les irradiations en températures, ont données des résultats prometteurs pour l'identification de technologies montrant une augmentation de la dégradation à faible débit de dose. Cependant, aucun test s'appliquant à toutes les technologies bipolaires n'a été identifié. C'est dans ce cadre que s'inscrit notre travail de thèse. Ce travail consiste à étudier et à améliorer les méthodes de test actuelles dans le but d'établir un unique test applicable à toutes les technologies bipolaires. En se basant sur un travail expérimental, une explication physique des phénomènes se produisant au cours d'irradiations à températures élevées a été donnée et un modèle de dégradation a été développé. A partir de l'observation des résultats obtenus, une nouvelle approche du test de composants est proposée. Cette approche est basée sur la commutation d'un fort débit de dose vers un faible débit
Bipolar technologies play a variety of important roles in space systems where they are exposed to radiation. In an ionizing environment, the base current of bipolar transistors increases and the current gain decreases. Increased recombination in the emitter-base depletion region is the main mechanism responsible for the increased base current. Many bipolar technologies degrade more at low dose rates than at high dose rates for a given total dose what is a difficult hardness assurance challenge. Methods of predicting the low-dose-rate response using laboratory dose rates, including irradiation at high temperature, have been reasonably successful at identifying technologies that suffer from ELDRS, but it is still difficult to identify a single test for all bipolar technologies. The aim of this work is then to investigate and improve the present methods in order to establish a sigle test for all bipolar technologies. Based on experimental results, physical explanation of phenomena occurring during elevated temperature irradiations has been proposed and a model of degradation has been expanded. From the observation of all the obtained results, a new approach of the device testing, based on the switching from high dose rate to low dose rate has been proposed
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Bourque, Alexandre. "Amélioration du calcul de dose TG-43 en curiethérapie à bas débit par un algorithme de dose primaire et diffusée sur processeur graphique". Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29312/29312.pdf.

Testo completo
Abstract (sommario):
Les calculs de dose en curiethérapie à bas débit reposent depuis 1995 sur un formalisme qui considère le milieu irradié comme étant homogène et constitué d’eau afin de mieux accommoder les temps de calcul clinique. Ce travail présente une amélioration de ce formalisme dosimétrique issu du protocole TG-43 de l’AAPM (American Association of Physicists in Medicine), utilisé actuellement dans les systèmes de planification de traitement (SPT) clinique. Avec l’ajout d’un tracé radiologique pour tenir compte des hétérogénéités et en séparant la dose primaire de la dose diffusée, il est possible de raffiner les calculs dosimétriques. Or, cette modification au calcul le rendant plus complexe était coûteuse en temps d’exécution jusqu’à très récemment. Elle se voit matérialisée dans ce travail avec l’arrivée récente de la technologie GPGPU, les calculs scientifiques sur périphériques graphiques. En exploitant le parallélisme des calculs de dose en curiethérapie à bas débit pour les implants permanents, l’algorithme baptisé TG-43-RT pour TG-43 avec tracé de rayons (Ray-Tracing en anglais) permet d’obtenir des facteurs d’accélération de l’ordre de 103 par rapport au CPU. Seulement 0.5 s par source est requis dans une géométrie de 1003 voxels, et les dosimétries d’anatomies hétérogènes sont sensiblement améliorées. Le TG-43-RT corrige les dépôts de dose en aval des hétérogénéités et réduit les effets indésirables de l’atténuation inter-sources. Des écarts de dose de plus de 80% au-delà d’une calcification avaient de quoi influencer les HDV, or, le TG-43-RT ramène ces déviations en-deçà de l’incertitude de 8.7% (2σ) concédée par les SPT, tel qu’établi dans le TG-138. Les simulations Monte Carlo ont été employées pour servir de référence absolue à la méthode développée et quantifier les améliorations dosimétriques relatives à l’actuel calcul de dose. L’algorithme a été testé d’un point de vue clinique dans un fantôme de prostate avec des sources d’125I et dans un fantôme de sein avec des sources de 103Pd pour unifier les corrections apportées.
Brachytherapy dose calculations have been relying since 1995 on a formalism that considers the whole geometry as a homogeneous water tank. This gives the opportunity to compute dose distributions within a reasonable clinical timeframe, but with considerable approximations that can influence or even change the treatment. This work presents an upgraded version of this formalism derived from the TG-43 protocol (AAPM), currently used in actual treatment planning systems. The new algorithm includes a primary and scatter dose separation using ray-tracing operation to account for heterogeneities through the medium. These modifications to the dose calculation are very power consuming and too long for the clinical needs when executed on modern CPUs. With the GPGPU technology, a GPU-driven algorithm allows a complex handling of the anatomic heterogeneities in the dose calculation and keeps execution times below 0.5 s/seed. The algorithm was named TG-43-RT for TG-43 with Ray-Tracing and accelerations factors of three order of magnitude were obtained over a regular CPU implementation. The TG-43-RT algorithm adequatly corrects dose deposition along heterogeneities and it reduces interseed attenuation effects. Dose is scored in the medium instead of water, which also applies a severe correction for high heterogeneous medium like the breast. Deviations of more than 80% in dose deposition were obtained over calcification inside the prostate when compared to Monte Carlo simulations. This kind of deviation influences DVH shape. However, the TG-43-RT was keeping those deviations within the 8.7% uncertainty range (2σ) associated with a regular TG-43 evaluation as stated in the TG-138. Monte Carlo simulations were used as a gold standard to get an absolute dose calculation reference. The algorithm was also tested in a prostate phantom with 125I seeds and in a breast phantom with 103Pd seeds to mimic real anatomic geometries and unify the applied corrections.
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Zhao, Yili. "Étude et réalisation d'un système de transmission d'images numériques à bas débit". Nancy 1, 1989. http://www.theses.fr/1989NAN10266.

Testo completo
Abstract (sommario):
La transmission ou le stockage d'image sont d'un grand intérêt avec le développement des communications. Les progrès technologiques obtenus dans le traitement numérique rendent aujourd'hui possible la réalisation de systèmes performants, dans lesquels la compression des données joue un rôle essentiel. Le domaine d'application de la compression du signal vidéo est très varié : vidéo-conférence, satellite, fac-similé, médical, diffusion, distribution de câble, etc. . . En pratique, les techniques de compression vidéo ne peuvent être dissociées des objectifs de l'utilisateur. L'efficacité s'analyse à partir de la qualité subjective et de la complexité désirée. La mauvaise restitution de quelques points dans l'image, par exemple, n'est pas forcément critique dans le domaine civil, mais peut être dramatique pour l'interprétation dans le domaine militaire. Il n'est donc pas possible de classer de façon générale les performances des méthodes de compression
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia