Academic literature on the topic 'Algorithme de réduction d’erreur'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Algorithme de réduction d’erreur.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Algorithme de réduction d’erreur"

1

Jaquet, David-Olivier. "Domaines de Voronoï et algorithme de réduction des formes quadratiques définies positives." Journal de Théorie des Nombres de Bordeaux 2, no. 1 (1990): 163–215. http://dx.doi.org/10.5802/jtnb.25.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Fenoglietto, P., L. Bedos, P. Dubois, A. Fenoglietto, J. Dubois, N. Aillères, and A. David. "Prothèses dentaires et algorithme de réduction des artéfacts métalliques pour les patients ORL." Cancer/Radiothérapie 18, no. 5-6 (October 2014): 610. http://dx.doi.org/10.1016/j.canrad.2014.07.071.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Bedos, L., N. Aillères, D. Azria, and P. Fenoglietto. "Évaluation de la précision des nombres Hounsfield d’un nouvel algorithme de réduction des artéfacts métalliques en radiothérapie." Cancer/Radiothérapie 18, no. 5-6 (October 2014): 611. http://dx.doi.org/10.1016/j.canrad.2014.07.074.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Matignon, Michel. "Vers un algorithme pour la réduction stable des revêtements p-cycliques de la droite projective sur un corps p-adique." Mathematische Annalen 325, no. 2 (February 2003): 323–54. http://dx.doi.org/10.1007/s00208-002-0387-4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Joy, Melanie S., Gary R. Matzke, Deborah K. Armstrong, Michael A. Marx, and Barbara J. Zarowitz. "A Primer on Continuous Renal Replacement Therapy for Critically Ill Patients." Annals of Pharmacotherapy 32, no. 3 (March 1998): 362–75. http://dx.doi.org/10.1345/aph.17105.

Full text
Abstract:
OBJECTIVE: To characterize the multiple continuous renal replacement therapy (CRRT) techniques available for the management of critically ill adults, and to review the indications for and complications of use, principles of drug removal during CRRT, drug dosage individualization guidelines, and the influence of CRRT on patient outcomes. DATA SOURCES: MEDLINE (January 1981–December 1996) was searched for appropriate publications by using terms such as hemofiltration, ultrafiltration, hemodialysis, hemodiafiltration, medications, and pharmacokinetics; selected articles were cross-referenced. STUDY SELECTION: References selected were those considered to enhance the reader's knowledge of the principles of CRRT, and to provide adequate therapies on drug disposition. DATA SYNTHESIS: CRRTs use filtration/convection and in some cases diffusion to treat hemodynamically unstable patients with fluid overload and/or acute renal failure. Recent data suggest that positive outcomes may also be attained in patients with other medical conditions such as septic shock, multiple organ dysfunction syndrome, and hepatic failure. Age, ventilator support, inotropic support, reduced urine volume, and elevated serum bilirubin concentrations have been associated with poor outcomes. Complications associated with CRRT include bleeding due to excessive anticoagulation and line disconnections, fluid and electrolyte imbalance, and filter and venous clotting. CRRT can complicate the medication regimens of patients for whom it is important to maintain drug plasma concentrations within a narrow therapeutic range. Since the physicochemical characteristics of a drug and procedure-specific factors can alter drug removal, a thorough assessment of all factors needs to be considered before dosage regimens are revised. In addition, an algorithm for drug dosing considerations based on drug and CRRT characteristics, as well as standard pharmacokinetic equations, is proposed. CONCLUSIONS: The use of CRRT has expanded to encompass the treatment of disease states other than just acute renal failure. Since there is great variability among treatment centers, it is premature to conclude that there is enhanced survival in CRRT-treated patients compared with those who received conventional hemodialysis. This primer may help clinicians understand the need to individualize these therapies and to prospectively optimize the pharmacotherapy of their patients receiving CRRT. OBJETIVO: Caracterizar las múltiples técnicas de reemplazo renal continuo (TRRC) disponibles para el manejo de pacientes adultos en estado crítico. Examinar las indicaciones de uso y complicaciones de cada técnica de TRRC, los principios de remoción de medicamentos durante TRRC, guías para individualizar la posologia, y la influencía de TRRC en los resultados clínicos obtenidos. FUENTES DE INFORMACIÓN: Se hizo una búsqueda en el sistema de informática MEDLINE en los años 1980–1996 incluyendo términos como hemofiltración, ultrafiltración, hemodialisis, hemodiafiltración, medicamentos, y farmacocinética. Además se buscaron articulos adicionales utilizando las referencias de los demás articulos selecionados. SELECCIÓN DE FUENTES DE INFORMACIÓN: La referencias seleccionadas fueron aquellas que los autores consideraron útiles para aportar conocimiento al lector sobre los principios del TRRC, así como proveer información sobre la disposición de los medicamentos. SÍNTESIS: TRRC utilizan filtración y/o convección y en algunos casos difusión para tratar pacientes hemodinamicamente inestables con sobrecarga de fluidos y/o fallo renal agudo. Información reciente sugiere que se pueden obtener resultados clínicos positivos con otras condiciones de salud tales como choque septico, síndrome de disfunción de multiples órganos, y fallo hepático. Factores como la edad, ventilación mecánica, terapia inotrópica, volumen urinario reducido, y aumento en las concentraciones de bilirubina sérica han sido asociados con resultados clínicos desfavorables. Las complicaciones asociadas con TRRC incluyen sangramiento debido a exceso de anticoagulación y desconección de la linea, desbalance de fluidos y electrolitos, y formación de coagulos venosos y en el filtro. El régimen de medicamentos se puede complicar en el paciente recibiendo TRRC cuando hay que mantener las concentraciones plasmáticas de algún fármaco dentro de un margen estrecho. Como las características fisicoquímicas del fármaco y algunos factores especificos del procedimiento pueden interactuar alterando la remoción de dicho fármaco, una evaluación detallada de todos los factores debe considerarse antes de ajustar la posologia. Se proponen un algoritmo para consideraciones sobre posología basado en las características del fármaco y del TRRC y ecuaciones farmacocinéticas estándares. CONCLUSIONES: El uso del TRRC se ha expandido para incluir el tratamiento de otras condiciones de salud además del fallo renal agudo. Debido a que existe gran variabilidad entre los centros de tratamientos es prematuro concluir que en efecto la sobrevivencia mejora en los pacientes tratados con TRRC en comparación con los que reciben hemodialisis convencional. Este compendio esperamos sea de utilidad para ayudar al practicante clínico a entender la necesidad de individualizar estas terapias y prospectivamente optimizar la farmacoterapia de los pacientes que reciban TRRC. OBJECTIF: Décrire les diverses techniques de thérapie continue de remplacement rénal (TCRR) chez les patients aux soins intensifs. Revoir les indications, les complications, les principes d'élimination des médicaments, l'individualisation des doses, et l'influence de cette thérapie sur la morbidité et mortalité des patients. REVUE DE LITTÉRATURE: Une recherche informatisée (1980–1996) a été effectuée avec les mots clés suivants: hémofiltration, ultrafiltration, hémodialyse, hémodiafiltration, médication, et pharmacocinétique ainsi que via les références d'articles obtenus. SÉLECTION DES ÉTUDES: Les références furent sélectionnées en fonction du potentiel d'augmentation du niveau de connaissance des principes de TCRR ainsi qu'en fonction de révaluation des paramètres cinétiques des médicaments. RÉSUMÉ: La TCRR utilise la filtration/la convection et dans quelques cas la diffusion pour traiter les patients instables avec une surcharge liquidienne et/ou une insuffisance rénale aiguë. Des données récentes suggèrent une amélioration de la morbidité et mortalité chez les patients traités pour un choc septique, un syndrome de dysfonction d'organes multiples, et une insuffisance hépatique. l'âge, le besoin d'un support respiratoire et hémodynamique, une réduction du volume urinaire, et un taux élevé de bilirubine sérique sont associés à un pronostic moindre. Les complications de la TCRR incluent les saignements dus à une anticoagulation excessive, des désordres liquidiens et électrolytiques, et la formation de caillots obstruant le filtre. La TCRR peut compliquer les régimes thérapeutiques de ceux où il faut maintenir des concentrations sériques dans un écart étroit. Puisque les caractéristiques physicochimiques du médicament peuvent en altérer son élimination, il importe d'évaluer tous les facteurs impliqués avant de déterminer un dosage médicamenteux. De plus, un algorithme pour aider la recommandation de dosages en fonction du médicament, des caractérisques de la TCRR, et d'équations de cinétique est présenté. CONCLUSIONS: Les indications de la TCRR ne se limitent plus à l'insuffisance rénale aiguë. étant donné la variabilité entre les centres hospitaliers, il est précoce de conclure à une survie améliorée avec ce type de thérapie par rapport à une hémodialyse standard. Cet article permettra aux cliniciens d'optimiser la thérapie des patients recevant ce type de thérapie rénale.
APA, Harvard, Vancouver, ISO, and other styles
6

Achour, Karim, Nadia Zenati, and Oualid Djekoune. "Contribution to image restoration using a neural network model." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 1, 2002 (September 22, 2002). http://dx.doi.org/10.46298/arima.1829.

Full text
Abstract:
International audience The reduction of the blur and the noise is an important task in image processing. Indeed, these two types of degradation are some undesirable components during some high level treatments. In this paper, we propose an optimization method based on neural network model for the regularized image restoration. We used in this application a modified Hopfield neural network. We propose two algorithms using the modified Hopfield neural network with two updating modes : the algorithm with a sequential updates and the algorithm with the n-simultaneous updates. The quality of the obtained result attests the efficiency of the proposed method when applied on several images degraded with blur and noise. La réduction du bruit et du flou est une tâche très importante en traitement d'images. En effet, ces deux types de dégradations sont des composantes indésirables lors des traitements de haut niveau. Dans cet article, nous proposons une méthode d'optimisation basée sur les réseaux de neurones pour résoudre le problème de restauration d'images floues-bruitées. Le réseau de neurones utilisé est le réseau de « Hopfield ». Nous proposons deux algorithmes utilisant deux modes de mise à jour: Un algorithme avec un mode de mise à jour séquentiel et un algorithme avec un mode de mise à jour n-simultanée. L'efficacité de la méthode mise en œuvre a été testée sur divers types d'images dégradées.
APA, Harvard, Vancouver, ISO, and other styles
7

Bodart, Vincent, Thomas Lambert, Philippe Ledent, and Vincent Scourneau. "Numéro 62 - octobre 2008." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15623.

Full text
Abstract:
En 2001, le gouvernement Verhoofstad II a décidé une importante réforme de l’impôt des personnes physique (IPP) dans le but de réduire de façon permanente la charge de l’impôt qui pèse sur les ménages en Belgique. Cette réforme vient en complément de plusieurs mesures de réduction de l’IPP prises au cours des années antérieures. La mise en place de la réforme s’est étalée entre 2002 et 2007, avec un effet important sur la charge de l’impôt supportée par les ménages en 2006. Dans ce numéro de Regards économiques, nous avons tenté de déterminer l’impact que la réforme fiscale de 2002, combinée aux mesures de réduction de l’IPP prises au cours des années antérieures, a pu avoir sur le total des dépenses de consommation des ménages belges (que l’on dénomme plus simplement la «consommation privée»). Pour ce faire, l’approche que nous avons suivie a consisté à construire un modèle de la consommation privée, à estimer ce modèle à l’aide de méthodes économétriques classiques et à utiliser ensuite les estimations obtenues pour déterminer quelle aurait été l’évolution des dépenses de consommation des ménages belges après 2002 dans le cadre d’un scénario contrefactuel où l’on suppose que le taux de pression fiscale est inchangé après 2002. Dans la mesure où la baisse du taux d’imposition des ménages n’apparaît véritablement qu’à partir de 2006, nous avons concentré notre estimation de l’impact de la réforme fiscale sur la période 2006-2007. Selon notre analyse, il y a de fortes chances que l’effet combiné des différentes mesures de réduction de la pression fiscale des ménages sur la consommation des ménages fut positif. Nos estimations suggèrent en effet que ces mesures ont eu pour conséquence de relever de 2,8 points de pourcentage le taux de croissance de la consommation privée sur la totalité de la période 2006-2007. En montants absolus, ces résultats correspondent à une hausse de la consommation privée de 5,5 milliards d’€ sur la période 2006-2007. Nos estimations montrent également que l’essentiel de l’impact a lieu en 2006, soit l’année au cours de laquelle la pression fiscale a sensiblement baissé en Belgique ; le taux de croissance de la consommation est en revanche très peu modifié en 2007. La réforme fiscale a donc eu un impact de très courte durée sur le niveau de la croissance économique. L’ampleur de l’impact mentionné ci-dessus doit être considérée avec une certaine réserve. Ayant été déterminé en simulant un modèle économétrique, il est inévitablement entouré d’une marge d’erreur. En considérant par exemple une marge d’erreur de 10 %, nous montrons que l’effet estimé de la réforme fiscale est compris dans un intervalle de confiance dont la limite supérieure correspond à un relèvement induit de la consommation privée de 13,5 milliards d’€ sur la période 2006-2007 et dont la limite inférieure correspond à un abaissement induit de la consommation privée de 2,2 milliards d’€ sur la même période. Nous devons donc admettre que, d’un point de vue statistique, notre estimation de l’effet de la réforme fiscale est assez peu précis. Il se peut ainsi que, d’un côté, l’impact de la réforme fiscale ait été plus grand que le chiffre de 5,5 milliards d’€. D’un autre côté, on ne peut pas exclure la possibilité que la réforme fiscale a entraîné une diminution, plutôt qu’une hausse, de la consommation des ménages, même si cette éventualité est très peu probable d’après nos estimations statistiques. Comme implication de politique économique, nous en concluons qu’il est erroné de croire qu’une réforme fiscale en Belgique a nécessairement un impact favorable sur l’activité économique, ce qui est d’ailleurs conforme aux enseignements de la théorie économique sur le sujet. En marge des résultats concernant l’impact de la réforme fiscale, notre étude a montré que, à l’instar de ce qui a déjà été mis en évidence pour d’autres pays européens, les variations de l’emploi ont un impact plus important sur la consommation privée que les variations du salaire. Ce résultat suggère que, par rapport à un objectif de stimulation de la croissance économique, les politiques économiques visant à soutenir la création d’emplois sont probablement plus indiquées que celles visant à soutenir le pouvoir d’achat.
APA, Harvard, Vancouver, ISO, and other styles
8

Bodart, Vincent, Thomas Lambert, Philippe Ledent, and Vincent Scourneau. "Numéro 62 - octobre 2008." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2008.10.01.

Full text
Abstract:
En 2001, le gouvernement Verhoofstad II a décidé une importante réforme de l’impôt des personnes physique (IPP) dans le but de réduire de façon permanente la charge de l’impôt qui pèse sur les ménages en Belgique. Cette réforme vient en complément de plusieurs mesures de réduction de l’IPP prises au cours des années antérieures. La mise en place de la réforme s’est étalée entre 2002 et 2007, avec un effet important sur la charge de l’impôt supportée par les ménages en 2006. Dans ce numéro de Regards économiques, nous avons tenté de déterminer l’impact que la réforme fiscale de 2002, combinée aux mesures de réduction de l’IPP prises au cours des années antérieures, a pu avoir sur le total des dépenses de consommation des ménages belges (que l’on dénomme plus simplement la «consommation privée»). Pour ce faire, l’approche que nous avons suivie a consisté à construire un modèle de la consommation privée, à estimer ce modèle à l’aide de méthodes économétriques classiques et à utiliser ensuite les estimations obtenues pour déterminer quelle aurait été l’évolution des dépenses de consommation des ménages belges après 2002 dans le cadre d’un scénario contrefactuel où l’on suppose que le taux de pression fiscale est inchangé après 2002. Dans la mesure où la baisse du taux d’imposition des ménages n’apparaît véritablement qu’à partir de 2006, nous avons concentré notre estimation de l’impact de la réforme fiscale sur la période 2006-2007. Selon notre analyse, il y a de fortes chances que l’effet combiné des différentes mesures de réduction de la pression fiscale des ménages sur la consommation des ménages fut positif. Nos estimations suggèrent en effet que ces mesures ont eu pour conséquence de relever de 2,8 points de pourcentage le taux de croissance de la consommation privée sur la totalité de la période 2006-2007. En montants absolus, ces résultats correspondent à une hausse de la consommation privée de 5,5 milliards d’€ sur la période 2006-2007. Nos estimations montrent également que l’essentiel de l’impact a lieu en 2006, soit l’année au cours de laquelle la pression fiscale a sensiblement baissé en Belgique ; le taux de croissance de la consommation est en revanche très peu modifié en 2007. La réforme fiscale a donc eu un impact de très courte durée sur le niveau de la croissance économique. L’ampleur de l’impact mentionné ci-dessus doit être considérée avec une certaine réserve. Ayant été déterminé en simulant un modèle économétrique, il est inévitablement entouré d’une marge d’erreur. En considérant par exemple une marge d’erreur de 10 %, nous montrons que l’effet estimé de la réforme fiscale est compris dans un intervalle de confiance dont la limite supérieure correspond à un relèvement induit de la consommation privée de 13,5 milliards d’€ sur la période 2006-2007 et dont la limite inférieure correspond à un abaissement induit de la consommation privée de 2,2 milliards d’€ sur la même période. Nous devons donc admettre que, d’un point de vue statistique, notre estimation de l’effet de la réforme fiscale est assez peu précis. Il se peut ainsi que, d’un côté, l’impact de la réforme fiscale ait été plus grand que le chiffre de 5,5 milliards d’€. D’un autre côté, on ne peut pas exclure la possibilité que la réforme fiscale a entraîné une diminution, plutôt qu’une hausse, de la consommation des ménages, même si cette éventualité est très peu probable d’après nos estimations statistiques. Comme implication de politique économique, nous en concluons qu’il est erroné de croire qu’une réforme fiscale en Belgique a nécessairement un impact favorable sur l’activité économique, ce qui est d’ailleurs conforme aux enseignements de la théorie économique sur le sujet. En marge des résultats concernant l’impact de la réforme fiscale, notre étude a montré que, à l’instar de ce qui a déjà été mis en évidence pour d’autres pays européens, les variations de l’emploi ont un impact plus important sur la consommation privée que les variations du salaire. Ce résultat suggère que, par rapport à un objectif de stimulation de la croissance économique, les politiques économiques visant à soutenir la création d’emplois sont probablement plus indiquées que celles visant à soutenir le pouvoir d’achat.
APA, Harvard, Vancouver, ISO, and other styles
9

Fisher, Clément, Arnaud Recoquillay, Olivier Mesnil, and Oscar d'Almeida. "Détection de défauts par ondes guidées robuste et auto-référencée : application aux pièces en composite tissé de forme complexe." e-journal of nondestructive testing 28, no. 9 (September 2023). http://dx.doi.org/10.58286/28509.

Full text
Abstract:
L’utilisation d’un état de référence, c’est-à-dire d’une baseline, pour l’analyse des données dans le cadre du contrôle santé des intégré (Structural Health Monitoring, SHM) par ondes guidées limite le champ d’application de ces approches. Cela a largement été démontré dans la littérature en présence de changement de température, mais c’est également vrai en présence de variations d’autres conditions environnementales et opérationnelles, ainsi que des effets du vieillissement. Cet article présente une nouvelle méthodologie auto-référencée, conçue pour être intrinsèquement robuste à l’influence des effets externes, y compris ceux qui n’ont pas été identifiés lors de la conception du système. La méthode repose sur le concept de baseline instantanée, c’est-à-dire la comparaison de plusieurs mesures acquises sur des mesures présentant un degré élevé de similitude du point de vue des ondes guidées. La subtilité de l'approche réside dans la détection de défauts ayant une faible influence sur les mesures en présence de variabilités extrinsèques et intrinsèques ayant une influence comparativement plus importante sur plusieurs échantillons similaires. La méthode comprend également une réduction de la dimension par l'extraction de quantités d'intérêt à partir des signaux acquis, permettant potentiellement l'analyse de plusieurs échantillons avec un volume de données limitées. La méthode proposée est validée avec succès sur 12 plaques d'aluminium, chacune présentant une fissure traversante de 1 à 30mm de longueur, dans un environnement de laboratoire avec des paramètres externes limités. Ensuite, l'approche est testée sur 2 échantillons composites tissés de forme complexe avec jusqu'à 7 trajectoires similaires du point de vue des ondes guidées. La détection d'une masse ajoutée est réussie sur toute la plage de températures considérée (-30◦C à 30◦C) pour toutes les fréquences d'interrogation étudiées (50, 100 et 150 kHz). La méthodologie proposée est nettement plus performante qu'un algorithme d'imagerie de l’état de l’art avec compensation de température appliqué aux mêmes données.
APA, Harvard, Vancouver, ISO, and other styles
10

Cockx, Bart, Muriel Dejemeppe, and Bruno Van der Linden. "Numéro 49 - janvier 2007." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15753.

Full text
Abstract:
La mise en place du nouveau plan d’accompagnement et de suivi des chômeurs en juillet 2004 fut l’objet de controverse. Ce plan a été abondamment débattu lors de son introduction par le ministre Vandenbroucke. Les syndicats considèrent qu’il introduit une "chasse aux chômeurs" dans un contexte où les emplois vacants sont trop peu nombreux. L'opposition au programme a surtout été vigoureuse en Wallonie et à Bruxelles, des régions où le taux de chômage est le double de celui de la Flandre. A l'opposé, les organisations patronales considèrent que ce plan est un ingrédient essentiel de toute politique de réduction du chômage. Ils observent que leurs postes vacants ne sont pas pourvus en dépit de taux de chômage importants. Ils affirment dès lors que certains chômeurs ne désirent pas occuper un emploi et que donc une forme de contrainte est nécessaire. Nous avons voulu examiner cette problématique de manière objective afin que le débat puisse s'appuyer sur un argumentaire solide. Dans ce numéro de Regards économiques, nous présentons les résultats d’une recherche que nous avons menée afin d’évaluer l’impact du nouveau plan d’accompagnement et de suivi des chômeurs, dans sa phase de lancement, sur l’insertion en emploi de chômeurs indemnisés âgés de 25 à 29 ans. Quels sont les ingrédients principaux du plan d’accompagnement et de suivi des chômeurs ? Le plan d’accompagnement et de suivi des chômeurs a introduit des changements simultanés majeurs dans le cadre du système d’assurance-chômage et de l’accompagnement des chômeurs en Belgique. Ils sont de trois types : Avant la réforme de 2004, l'article 80 de la réglementation de l'assurance-chômage imposait, sous certaines conditions, une fin de droit à l’indemnité aux chômeurs cohabitants de longue durée. Le gouvernement fédéral a choisi de remplacer cet article par un nouveau système plus équitable qui puisse en même temps assurer la viabilité d’un système d’assurance-chômage à durée illimitée. L’ONEM est autorisé non seulement à contrôler la disponibilité des chômeurs indemnisés à l’égard du marché du travail, mais aussi à contrôler lui-même l’intensité de l’effort de recherche d’emploi. Il s’agit de la procédure d’Activation du Comportement de Recherche d’emploi (ACR) qui consiste en des entretiens individuels périodiques durant lesquels un facilitateur évalue les activités de recherche d’emploi des chômeurs indemnisés. Un élément essentiel de cette procédure est l’envoi d’une lettre d’avertissement environ 8 mois avant le 1er entretien en vue d’informer le chômeur indemnisé de ses obligations et de la procédure d’ACR. Le contrôle de la disponibilité des chômeurs indemnisés à l’égard du marché du travail a été accentué à travers un échange de données (relatives aux refus d’emploi, de participation à des politiques régionales, etc.) beaucoup plus systématique entre les services publics de l’emploi (VDAB, FOREM, ORBEM) et l’ONEM. Les services publics de l’emploi ont renforcé l’accompagnement de tous les chômeurs (de courte et de longue durée) par une série de politiques actives : entretiens individuels de diagnostic, parcours d’insertion, aides à la recherche d’emploi, formations, etc. Quel est l’objet de notre étude ? Puisqu’un certain recul est indispensable à l’évaluation, nous avons évalué les effets du plan d’accompagnement et de suivi des chômeurs dans sa phase de lancement et, dès lors, pour le public qui le premier est entré la procédure d’activation du comportement de recherche d’emploi : les Chômeurs Complets Indemnisés inscrits obligatoirement comme Demandeurs d’Emploi (CCI-DE), qui sont âgés de 25 à 29 ans et qui ont reçu la lettre d’avertissement de l’ONEM entre juillet et octobre 2004 car ils viennent d’atteindre leur 13ème mois de chômage (qui est la durée seuil de chômage à laquelle l’ONEM avertit les chômeurs indemnisés de la procédure d’ACR). Nous avons évalué les effets du plan d’accompagnement et de suivi des chômeurs sur la reprise d’emploi de ces chômeurs. Pour cela, nous comparons le taux de sortie du chômage vers l’emploi de CCI-DE âgés entre 25 et 29 ans (notre «groupe cible» décrit ci-dessus) et de chômeurs semblables mais qui n’ont pas été avertis en raison d’un âge légèrement supérieur à 30 ans (notre «groupe de contrôle»). La méthode d’évaluation que nous exploitons dans cette étude ne permet pas d’évaluer les effets du plan au-delà de 10 mois après l’avertissement. En effet, les chômeurs d’un âge légèrement supérieur à 30 ans sont concernés par la procédure d’ACR dès le 1er juillet 2005 et sont donc susceptibles de recevoir eux aussi un avertissement de l’ONEM à partir de cette date. Hormis en fin de période d’analyse, les jeunes de moins de 30 ans n’ont pas encore participé au premier entretien à l’ONEM. La lettre d’avertissement est donc la seule composante de la procédure d’ACR dont nous pouvons évaluer les effets. Seul le FOREM a choisi d’offrir un accompagnement spécifique aux chômeurs avertis par l’ONEM. Pour la Région wallonne, nous évaluons alors l’effet combiné de la lettre d’avertissement et d’actions d’accompagnement. Le fait qu’on ne puisse pas évaluer l’effet de mesures d’accompagnement à l’ORBEM ou au VDAB ne signifie pas que ces deux services de l’emploi n’offrent aucun accompagnement pour les jeunes chômeurs. Cette impossibilité découle simplement du fait qu’une offre d’accompagnement spécifique n’a pas été mise en place pour les chômeurs de moins de 30 ans avertis par l’ONEM. La littérature internationale montre que l’envoi d’une lettre d’avertissement fait partie intégrante des politiques d’accompagnement et de suivi des chômeurs, et que des changements, parfois importants, de comportement en matière de recherche d’emploi peuvent découler de l’annonce d’un programme obligatoire du type de l’ACR belge. Ce programme pourrait donc accélérer l’insertion en emploi dès le moment où le chômeur est averti de la nouvelle procédure de suivi. Le faible nombre de chômeurs ayant participé à un entretien durant notre période d’analyse ne signifie donc pas que notre évaluation porte sur une partie secondaire du nouveau dispositif instauré en Belgique. Quels sont les résultats principaux qui se dégagent de notre étude ? 1.En Flandre et en Wallonie, le plan d’accompagnement et de suivi des chômeurs a un effet positif clair sur la sortie du chômage vers l’emploi pour certains groupes seulement. Il s’agit: des chômeurs très éduqués. Ainsi un CCI-DE de moins de 30 ans qui est diplômé de l’enseignement supérieur et qui réside en Wallonie (resp. Flandre) avait-il 40 % (resp. 43 %) de chances d’avoir trouvé un emploi cinq mois après l’avertissement de l’ONEM; en l’absence du plan cette probabilité n’aurait été que de 29 % (resp. 32 %). L’augmentation relative de la probabilité d’emploi est donc substantielle : au bout de cinq mois, le plan d’accompagnement et de suivi a permis de relever la probabilité d’emploi de 38 % (resp. 35 %). et en Wallonie seulement, des chômeurs qui ont connu une expérience récente d’emploi des chômeurs qui résident dans une sous-région où le chômage est plus faible des femmes Pour les autres groupes de chômeurs (peu diplômés, n’ayant pas connu d’expérience de travail récente, résidant dans des sous-régions où le chômage est élevé, hommes), les effets du PAS sont faibles et souvent proches de zéro. 2. Par le supplément de démarches de recherche d’emploi, le risque de sanction, etc. associés à l’ARC, les entretiens d’évaluation annoncés dans la lettre d’avertissement sont donc perçus comme contraignants par le chômeur indemnisé et l’incitent à intensifier sa recherche d’emploi ou à modifier son attitude face aux offres d’emploi avant la survenance du 1er entretien. Toutefois, l’accentuation de l’effort de recherche induite par la lettre ne s’avère clairement efficace que pour certains groupes, en particulier ceux dont le profil est plus favorable à l’embauche. 3. En Wallonie, l’effet mesuré combine celui de la lettre et d’actions spécifiques d’accompagnement du FOREM. Alors qu’il est généralement plus difficile de trouver un emploi en Région wallonne, la similitude de l’effet du plan d’accompagnement et de suivi des chômeurs en Wallonie et en Flandre s’explique sans doute par ce soutien spécifique du FOREM. 4. Le PAS a notamment pour effet de stimuler la sortie du chômage vers des emplois à temps partiel faiblement rémunérés en Flandre, où il n’y a pas eu d’accompagnement individualisé spécifique à la réception de l’avertissement. Un tel phénomène n’est pas observé pour les chômeurs wallons qui ont bénéficié d’un tel accompagnement. La menace de contrôle et de sanctions, sans accompagnement spécifique du service public de l’emploi, pourrait ainsi inciter des chômeurs à abaisser leurs exigences à l’embauche. 5. Contrairement aux deux autres Régions, le PAS n’a pas pour effet de stimuler la reprise d’emploi des jeunes chômeurs indemnisés résidant à Bruxelles. Quelles sont nos recommandations d’actions à prendre pour rendre plus efficace le suivi et l’accompagnement des chômeurs en Belgique ? Soulignons d’abord que, pour nous, un contrôle du comportement des chômeurs indemnisés n’est pas une mesure à préconiser pour elle-même mais pour rendre le système d’assurance-chômage plus juste et efficace (cf. ci-dessous). Par ailleurs, un système de contrôle ne peut favoriser l’insertion en emploi que s’il s’accompagne d’autres actions régionales (aides à la recherche d’emploi, formations, etc.) ou fédérales (stimulation de l’offre d’emplois via des réductions ciblées du coût de travail, etc.). 1. Un système de contrôle du comportement des chômeurs indemnisés permet de rendre le système d’assurance-chômage plus juste et efficace La durée d’indemnisation dépend de nombreux facteurs sur lesquels un chômeur particulier n’a guère d’emprise. Mais, cette durée dépend aussi de ses choix en matière d’effort de recherche d’emploi et d’acceptation d’offres d’emploi. En effectuant ces choix, le chômeur n’a pas de raison de prendre en compte le coût des indemnités pour la collectivité. Aussi son effort de recherche est-il spontanément inférieur au niveau désirable du point de vue collectif. De même, ses exigences face aux offres sont-elles spontanément trop élevées. Il est donc souhaitable d’exercer un contrôle du comportement des chômeurs. En agissant de la sorte, on incite les chômeurs, qui sont capables de trouver un emploi par leurs propres moyens, à quitter le chômage plus rapidement. Ainsi, on libère des ressources financières pour renforcer la protection sociale de ceux qui n’ont pas cette capacité. Autrement dit, le contrôle des chômeurs ne trouve son sens qu’au service d’une meilleure protection sociale du chômeur. Nous énonçons ci-dessous des conditions nécessaires pour qu’il en soit ainsi. 2. Le contrôle doit porter sur des actions vérifiables, comme les refus d’emploi convenable Selon nous, il faut supprimer la vérification de preuves écrites de démarches de recherche d’emploi dans la procédure d’ACR de l’ONEM. L’évaluation de dispositifs similaires dans d’autres pays nous enseigne que des entretiens brefs et axés de facto sur le contrôle administratif d’indicateurs de démarches vérifiables de recherche d’emploi se révèlent généralement peu efficaces à réinsérer les chômeurs dans l’emploi. Ces indicateurs (candidatures écrites à des offres d’emplois, etc.) n’informent en effet qu’incomplètement de l’activité de recherche. Le risque d’erreur de jugement par le facilitateur est en outre notable. L’incitation à collationner des preuves de démarches formelles peut enfin détourner les demandeurs d’emploi de canaux de recherche informels (recours à des relations, etc.), le cas échéant plus efficaces en termes de remise à l’emploi. Le contrôle effectué par les facilitateurs de l’ONEM devrait donc plutôt se concentrer sur des actions vérifiables, comme le refus d’une offre d’emploi convenable. 3. Pour que le contrôle du refus d’offres d’emploi convenable soit un instrument efficace d’activation du comportement de recherche, plusieurs conditions doivent être remplies : une définition précise de la notion d’emploi convenable, c’est-à-dire l’emploi que le chômeur ne peut pas refuser. Le sens de la notion d’emploi convenable est explicité dans la législation du chômage. Il n’est pas possible de la codifier en prenant en compte tous les cas de figure possibles. Il n’empêche qu’une définition aussi précise que possible s’impose sous peine d’arbitraire et/ou de procédures juridiques longues et coûteuses; une transmission régulière et individualisée d’offres d’emploi par les services publics de l’emploi régionaux (dès l’inscription comme demandeur d’emploi); une transmission efficace des données relatives aux comportements d’acceptation et de refus d’emploi par les services publics de l’emploi régionaux à destination de l’ONEM; informer le chômeur, dès le début de sa période d’indemnisation, des règles. Comme le montre cette étude, un avertissement peut en effet avoir un impact positif sur les sorties du chômage vers l’emploi si le système de contrôle est crédible. 4. Un système de contrôle ne peut se concevoir qu’après une certaine durée d’indemnisation et que pour les chômeurs jugés autonomes dans leur recherche d’emploi Le contrôle du refus d’offres d’emploi convenable ne devrait intervenir qu’après un entretien individuel d’orientation avec un conseiller du service public de l’emploi régional. Il faut toutefois éviter d’intervenir trop tôt dans l’épisode de chômage – avant 6 mois de chômage - car on risque alors de gaspiller des ressources collectives en ne laissant pas le temps à ceux qui le peuvent de sortir seuls du chômage. Selon le profil et les besoins du chômeur, l’entretien individuel pourrait déboucher soit sur une recommandation de recherche d’emploi autonome, soit sur la participation à programme d’accompagnement spécifique. La procédure de contrôle ne s’appliquerait qu’aux chômeurs indemnisés jugés autonomes dans leur recherche d’emploi. Les autres deviendraient concernés par la procédure de contrôle au terme de leur programme d’accompagnement.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Algorithme de réduction d’erreur"

1

Khoder, Jihan. "Nouvel Algorithme pour la Réduction de la Dimensionnalité en Imagerie Hyperspectrale." Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2013. http://tel.archives-ouvertes.fr/tel-00939018.

Full text
Abstract:
En Imagerie hyperspectrale, les volumes de données acquises atteignent souvent le gigaoctet pour une seule et même scène observée. De ce fait, l'analyse de ces données au contenu physique complexe passe obligatoirement par une étape préliminaire de réduction de la dimensionnalité. Cette réduction a un double objectif, le premier consiste à réduire la redondance et le second permet de faciliter les traitements postérieurs (extraction, classification et reconnaissance de formes) et donc l'interprétation des données. La classification automatique est une étape importante du processus d'extraction de connaissances à partir des données. Elle vise à découvrir la structure intrinsèque d'un ensemble d'objets en formant des regroupements qui partagent des caractéristiques similaires. Dans cette thèse, nous nous intéressons à la réduction de dimension dans le cadre de la classification non supervisée des bandes spectrales. Différentes approches existent, comme celles basées sur la projection (linéaire ou non-linéaire) des données de grandes dimensions sur des sous-espaces de représentation bien choisis ou sur les techniques de sélection de bandes spectrales exploitant des critères de complémentarité-redondance d'information qui ne permettent pas de préserver toute la richesse de l'information apportée par ce type de données. 1 - Nous avons accompli une étude comparative, sur la stabilité et la similarité des algorithmes des méthodes non paramétriques et non supervisée de la projection et aussi de la sélection des bandes utilisées dans la réduction de la dimensionnalité à différents niveaux de bruit déterminés. Les tests sont effectués sur des images hyperspectrales, en classant ces derniers en trois catégories selon leur degré de performance de préserver la quantité d'informations. 2 - Nous avons introduit une nouvelle approche de critère basée sur la di-similarité des attributs spectraux et utilisée dans un espace local sur des matrices de données ; L'approche a servi pour définir un taux de préservation d'un évènement rare dans une transformation mathématique donnée. Cependant, nous avons limitée son application au contexte de la thèse liée à la réduction de la taille des données dans une image hyperspectrale. 3 - Les études comparatives ont permis une première proposition d'approche hybride pour la reduction de la taille d'une image hyperspectrale permettant une meilleure stabilité : BandClustering avec Multidimensional Scaling (MDS). Des exemples sont donnés pour démontrer l'originalité et la pertinence de l'hybridation (BandClust / MDS) de l'analyse effectuée. 4 - La tendance de l'hybridation a été généralisée par la suite en présentant un algorithme hybride adaptatif non supervisé basé sur la logique flou (Fuzzy C means), une méthode de projection comme l'analyse en composante principale (ACP) et un indice de validité d'une classification. Les classifications effectuées par Fuzzy C means permettent d'affecter chaque pixel d'une image hyperspectrale à toutes les classes avec des degrés d'appartenance variant entre 0 et 1. Cette propriété rend la méthode FCM intéressante pour la mise en évidence soit des transitions progressives entre les différentes bandes spectrales ou des hétérogénéités spectrales. Grâce à des méthodes conventionnelles appelées indices de validité de classes, nous avons déterminé le nombre optimal de classes de FCM ainsi que le paramètre de flou. Nous montrons que cette hybridation conduit à un taux de réduction pertinent dans l'imagerie hyperspectrale. Par conséquent, Cet algorithme appliqué à différents échantillons de données hyperspectrales, permet une imagerie spectrale beaucoup plus informative, notamment au niveau de l'hétérogénéité spectrale.
APA, Harvard, Vancouver, ISO, and other styles
2

Khoder, Jihan Fawaz. "Nouvel algorithme pour la réduction de la dimensionnalité en imagerie hyperspectrale." Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0037.

Full text
Abstract:
En imagerie hyperspectrale, les volumes de données acquises atteignent souvent le gigaoctet pour une seule et même scène observée. De ce fait, l’analyse de ces données au contenu physique complexe passe obligatoirement par une étape préliminaire de réduction de la dimensionnalité. Cette réduction a un double objectif, le premier consiste à réduire la redondance et le second permet de faciliter les traitements postérieurs (extraction, classification et reconnaissance de formes) et donc l’interprétation des données. La classification automatique est une étape importante du processus d’extraction de connaissances à partir des données. Elle vise à découvrir la structure intrinsèque d’un ensemble d’objets en formant des regroupements qui partagent des caractéristiques similaires. Dans cette thèse, nous nous intéressons à la réduction de dimension dans le cadre de la classification non supervisée des bandes spectrales. Différentes approches existent, comme celles basées sur la projection (linéaire ou non-linéaire) des données de grandes dimensions sur des sous-espaces de représentation bien choisis ou sur les techniques de sélection de bandes spectrales exploitant des critères de complémentarité-redondance d’information qui ne permettent pas de préserver toute la richesse de l’information apportée par ce type de données
In hyperspectral imaging, the volumes of data acquired often reach the gigabyte for a single scene observed. Therefore, the analysis of these data complex physical content must go with a preliminary step of dimensionality reduction. Therefore, the analyses of these data of physical content complex go preliminary with a step of dimensionality reduction. This reduction has two objectives, the first is to reduce redundancy and the second facilitates post-treatment (extraction, classification and recognition) and therefore the interpretation of the data. Automatic classification is an important step in the process of knowledge extraction from data. It aims to discover the intrinsic structure of a set of objects by forming groups that share similar characteristics. In this thesis, we focus on dimensionality reduction in the context of unsupervised classification of spectral bands. Different approaches exist, such as those based on projection (linear or nonlinear) of high-dimensional data in a representation subspaces or on the techniques of selection of spectral bands exploiting of the criteria of complementarity-redundant information do not allow to preserve the wealth of information provided by this type of data
APA, Harvard, Vancouver, ISO, and other styles
3

Allier, Pierre-Eric. "Contrôle d’erreur pour et par les modèles réduits PGD." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLN063/document.

Full text
Abstract:
De nombreux problèmes de mécanique des structures nécessitent la résolution de plusieurs problèmes numériques semblables. Une approche itérative de type réduction de modèle, la Proper Generalized Decomposition (PGD), permet de déterminer l’ensemble des solutions en une fois, par l’introduction de paramètres supplémentaires. Cependant, un frein majeur à son utilisation dans le monde industriel est l’absence d’estimateur d’erreur robuste permettant de mesurer la qualité des solutions obtenues. L’approche retenue s’appuie sur le concept d’erreur en relation de comportement. Cette méthode consiste à construire des champs admissibles, assurant ainsi l’aspect conservatif et garanti de l’estimation de l’erreur en réutilisant le maximum d’outils employés dans le cadre éléments finis. La possibilité de quantifier l’importance des différentes sources d’erreur (réduction et discrétisation) permet de plus de piloter les principales stratégies de résolution PGD. Deux stratégies ont été proposées dans ces travaux. La première s’est principalement limitée à post-traiter une solution PGD pour construire une estimation de l’erreur commise, de façon non intrusive pour les codes PGD existants. La seconde consiste en une nouvelle stratégie PGD fournissant une approximation améliorée couplée à une estimation de l’erreur commise. Les diverses études comparatives sont menées dans le cadre des problèmes linéaires thermiques et en élasticité. Ces travaux ont également permis d’optimiser les méthodes de construction de champs admissibles en substituant la résolution de nombreux problèmes semblables par une solution PGD, exploitée comme un abaque
Many structural mechanics problems require the resolution of several similar numerical problems. An iterative model reduction approach, the Proper Generalized Decomposition (PGD), enables the control of the main solutions at once, by the introduction of additional parameters. However, a major drawback to its use in the industrial world is the absence of a robust error estimator to measure the quality of the solutions obtained.The approach used is based on the concept of constitutive relation error. This method consists in constructing admissible fields, thus ensuring the conservative and guaranteed aspect of the estimation of the error by reusing the maximum number of tools used in the finite elements framework. The ability to quantify the importance of the different sources of error (reduction and discretization) allows to control the main strategies of PGD resolution.Two strategies have been proposed in this work. The first was limited to post-processing a PGD solution to construct an estimate of the error committed, in a non-intrusively way for existing PGD codes. The second consists of a new PGD strategy providing an improved approximation associated with an estimate of the error committed. The various comparative studies are carried out in the context of linear thermal and elasticity problems.This work also allowed us to optimize the admissible fields construction methods by substituting the resolution of many similar problems by a PGD solution, exploited as a virtual chart
APA, Harvard, Vancouver, ISO, and other styles
4

Zapien, Durand-Viel Karina. "Algorithme de chemin de régularisation pour l'apprentissage statistique." Phd thesis, INSA de Rouen, 2009. http://tel.archives-ouvertes.fr/tel-00557888.

Full text
Abstract:
La sélection d'un modèle approprié est l'une des tâches essentielles de l'apprentissage statistique. En général, pour une tâche d'apprentissage donnée, on considère plusieurs classes de modèles ordonnées selon un certain ordre de " complexité". Dans ce cadre, le processus de sélection de modèle revient 'a trouver la " complexité " optimale, permettant d'estimer un modèle assurant une bonne généralisation. Ce problème de sélection de modèle se résume à l'estimation d'un ou plusieurs hyper-paramètres définissant la complexité du modèle, par opposition aux paramètres qui permettent de spécifier le modèle dans la classe de complexité choisie. L'approche habituelle pour déterminer ces hyper-paramètres consiste à utiliser une " grille ". On se donne un ensemble de valeurs possibles et on estime, pour chacune de ces valeurs, l'erreur de généralisation du meilleur modèle. On s'intéresse, dans cette thèse, à une approche alternative consistant à calculer l'ensemble des solutions possibles pour toutes les valeurs des hyper-paramètres. C'est ce qu'on appelle le chemin de régularisation. Il se trouve que pour les problèmes d'apprentissage qui nous intéressent, des programmes quadratiques paramétriques, on montre que le chemin de régularisation associé à certains hyper-paramètres est linéaire par morceaux et que son calcul a une complexité numérique de l'ordre d'un multiple entier de la complexité de calcul d'un modèle avec un seul jeu hyper-paramètres. La thèse est organisée en trois parties. La première donne le cadre général des problèmes d'apprentissage de type SVM (Séparateurs à Vaste Marge ou Support Vector Machines) ainsi que les outils théoriques et algorithmiques permettant d'appréhender ce problème. La deuxième partie traite du problème d'apprentissage supervisé pour la classification et l'ordonnancement dans le cadre des SVM. On montre que le chemin de régularisation de ces problèmes est linéaire par morceaux. Ce résultat nous permet de développer des algorithmes originaux de discrimination et d'ordonnancement. La troisième partie aborde successivement les problèmes d'apprentissage semi supervisé et non supervisé. Pour l'apprentissage semi supervisé, nous introduisons un critère de parcimonie et proposons l'algorithme de chemin de régularisation associé. En ce qui concerne l'apprentissage non supervisé nous utilisons une approche de type " réduction de dimension ". Contrairement aux méthodes à base de graphes de similarité qui utilisent un nombre fixe de voisins, nous introduisons une nouvelle méthode permettant un choix adaptatif et approprié du nombre de voisins.
APA, Harvard, Vancouver, ISO, and other styles
5

Driant, Thomas. "Réduction de la traînée aérodynamique et refroidissement d'un tricycle hybride par optimisation paramétrique." Thèse, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6990.

Full text
Abstract:
La réduction de la traînée aérodynamique des véhicules dans un objectif de diminution de la consommation énergétique est en plein essor aussi bien pour les véhicules électriques que thermiques. Cette étude porte sur un tricycle à motorisation hybride dont la forme et le comportement aérodynamique sont à la frontière entre une motocyclette et une automobile. L'étude s'inspire des avancées scientifiques sur ces deux types de véhicules en matière d'aérodynamique. L'objectif principal est de réduire la traînée aérodynamique du véhicule par des modifications de l'enveloppe externe tout en assurant le refroidissement du moteur thermique et des composants de la chaîne électrique. On développe une optimisation topologique de la position des échangeurs sur le tricycle, on conçoit et fabrique un prototype en fonction des résultats d'optimisation. Ensuite, on valide le prototype par des essais en soufflerie et on caractérise son aérodynamique ainsi que la sensibilité de la traînée du véhicule suivant des paramètres comme la vitesse, l'angle de lacet, etc. En n, l'étude s'oriente vers une approche d'optimisation globale multidisciplinaire permettant d'atteindre l'objectif principal en fonction des contraintes ayant trait au projet.
APA, Harvard, Vancouver, ISO, and other styles
6

Delestre, Barbara. "Reconstruction 3D de particules dans un écoulement par imagerie interférométrique." Electronic Thesis or Diss., Normandie, 2022. http://www.theses.fr/2022NORMR116.

Full text
Abstract:
Pour de nombreuses applications industrielles ou environnementales, il est important de mesurer la taille et le volume de particules de formes irrégulières. C'est par exemple le cas dans le cadre du givrage des aéronefs qui se produit durant les vols, où il est nécessaire de mesurer in-situ la teneur en eau et la teneur en glace dans la troposphère afin de détecter et d’éviter les zones à risques. Notre intérêt s’est porté sur l’imagerie interférométrique en défaut de mise au point, une technique optique offrant de nombreux avantages (large champ de mesure, gamme de tailles étudiée étendue [50 μm : quelques millimètres], distance particule/appareil de mesure de plusieurs dizaines de centimètres…). Au cours de ces travaux de thèse, nous avons montré que la reconstruction 3D d'une particule peut se faire à partir d'un ensemble de trois images interférométriques de cette particule (sous trois angles de vue perpendiculaires). Cela peut être fait en utilisant l'algorithme de réduction d'erreur (ER) qui permet d'obtenir la fonction f(x,y) à partir des mesures du module de sa transformée de Fourier 2D |F(u,v)|, en reconstruisant la phase de sa transformée de Fourier 2D. La mise en œuvre de cet algorithme nous a permis de reconstruire la forme de particules irrégulières à partir de leurs images interférométriques. Des démonstrations expérimentales ont été réalisées à l'aide d'un montage spécifique basé sur l'utilisation d’une matrice de micro-miroirs (DMD) qui génère les images interférométriques de particules rugueuses programmables. Les résultats obtenus sont très encourageants. Les volumes obtenus restent assez proches du volume réel de la particule et les formes 3D reconstruites nous donnent une bonne idée de la forme générale de la particule étudiée même dans les cas les plus extrêmes où l'orientation de la particule est quelconque. Enfin, nous avons montré qu'une reconstruction 3D précise d'une particule rugueuse "programmée" peut être effectuée à partir d'un ensemble de 120 images interférométriques
For many industrial or environmental applications, it is important to measure the size and volume of irregularly shaped particles. This is for example the case in the context of aircraft icing which occurs during flights, where it is necessary to measure in situ the water content and the ice content in the troposphere in order to detect and avoid risk areas. Our interest has been on interferometric out-of-focus imaging, an optical technique offering many advantages (wide measurement field, extended range of sizes studied [50 μm: a few millimeters], distance particle / measuring device several tens of centimeters ...). During this thesis, we showed that the 3D reconstruction of a particle can be done from a set of three interferometric images of this particle (under three perpendicular viewing angles). This can be done using the error reduction (ER) algorithm which allows to obtain the function f(x,y) from the measurements of the modulus of its 2D Fourier transform |F(u,v)| , by reconstructing the phase of its 2D Fourier transform. The implementation of this algorithm allowed us to reconstruct the shape of irregular particles from their interferometric images. Experimental demonstrations were carried out using a specific assembly based on the use of a micro-mirror array (DMD) which generates the interferometric images of programmable rough particles. The results obtained are very encouraging. The volumes obtained remain quite close to the real volume of the particle and the reconstructed 3D shapes give us a good idea of the general shape of the particle studied even in the most extreme cases where the orientation of the particle is arbitrary. Finally, we showed that an accurate 3D reconstruction of a "programmed" rough particle can be performed from a set of 120 interferometric images
APA, Harvard, Vancouver, ISO, and other styles
7

Karina, Zapien. "Algorithme de Chemin de Régularisation pour l'apprentissage Statistique." Phd thesis, INSA de Rouen, 2009. http://tel.archives-ouvertes.fr/tel-00422854.

Full text
Abstract:
La sélection d'un modèle approprié est l'une des tâches essentielles de l'apprentissage statistique. En général, pour une tâche d'apprentissage donnée, on considère plusieurs classes de modèles ordonnées selon un certain ordre de "complexité". Dans ce cadre, le processus de sélection de modèle revient à trouver la "complexité" optimale, permettant d'estimer un modèle assurant une bonne généralisation. Ce problème de sélection de modèle se résume à l'estimation d'un ou plusieurs hyperparamètres définissant la complexité du modèle, par opposition aux paramètres qui permettent de spécifier le modèle dans la classe de complexité choisie.
L'approche habituelle pour déterminer ces hyperparamètres consiste à utiliser une "grille". On se donne un ensemble de valeurs possibles et on estime, pour chacune de ces valeurs, l'erreur de généralisation du meilleur modèle. On s'intéresse, dans cette thèse, à une approche alternative consistant à calculer l'ensemble des solutions possibles pour toutes les valeurs des hyperparamètres. C'est ce qu'on appelle le chemin de régularisation. Il se trouve que pour les problèmes d'apprentissage qui nous intéressent, des programmes quadratiques paramétriques, on montre que le chemin de régularisation associé à certains hyperparamètres est linéaire par morceaux et que son calcul a une complexité numérique de l'ordre d'un multiple entier de la complexité de calcul d'un modèle avec un seul jeu hyper-paramètres.
La thèse est organisée en trois parties. La première donne le cadre général des problèmes d'apprentissage de type SVM (Séparateurs à Vaste Marge ou Support Vector Machines) ainsi que les outils théoriques et algorithmiques permettant d'appréhender ce problème. La deuxième partie traite du problème d'apprentissage supervisé pour la classification et l'ordonnancement dans le cadre des SVM. On montre que le chemin de régularisation de ces problèmes est linéaire par morceaux. Ce résultat nous permet de développer des algorithmes originaux de discrimination et d'ordonnancement. La troisième partie aborde successivement les problèmes d'apprentissage semi supervisé et non supervisé. Pour l'apprentissage semi supervisé, nous introduisons un critère de parcimonie et proposons l'algorithme de chemin de régularisation associé. En ce qui concerne l'apprentissage non supervisé nous utilisons une approche de type "réduction de dimension". Contrairement aux méthodes à base de graphes de similarité qui utilisent un nombre fixe de voisins, nous introduisons une nouvelle méthode permettant un choix adaptatif et approprié du nombre de voisins.
APA, Harvard, Vancouver, ISO, and other styles
8

Nouet, Christophe. "Réduction de l'ordre des systèmes continus, linéaires, via un processus d'orthogonalisation et un algorithme de gauss newton." Brest, 1994. http://www.theses.fr/1994BRES2040.

Full text
Abstract:
Nous avons développé une méthode d'approximation des signaux et systèmes à temps continu, optimale au sens des moindres carres. À partir de la seule connaissance de la transformée de Laplace rationnelle ou irrationnelle de la réponse, par exemple impulsionnelle ou indicielle d'un système initial, nous déterminons le meilleur modèle approche dont la réponse, soit la plus proche possible de celle du modèle original. Nous exprimons toujours le modèle approche sous forme d'une transformée de Laplace rationnelle. La qualité de l'approximation est mesurée à l'aide du critère d'erreur quadratique. La méthode élaborée, comme toute technique optimale, nécessite la mise en place d'un processus itératif d'optimisation. La première phase utilisant des équations linéaires, calcule le meilleur numérateur pour un dénominateur donné. La seconde permettant d'ajuster progressivement le dénominateur fait intervenir des équations non linéaires que nous linéarisons par un processus de type gauss-newton. Grâce a une technique d'orthogonalisation des fonctions d'approximation basée sur l'utilisation des tableaux de Routh, nous évitons la résolution des systèmes linéaires et par conséquent le calcul et l'inversion de matrices souvent mal conditionnées. La meilleure solution minimisant le critère d'erreur quadratique est obtenue par une expression explicite, dans laquelle ne figurent plus que des matrices d'orthogonalisation dont nous avons proposé une détermination originale. Pour cette nouvelle approche de l'approximation, la gestion spécifique des pôles réels ou complexes, simples ou multiples, est évitée. Tous les paramètres étant réels, les calculs s'effectuent en arithmétique réelle. De plus, dans le cas de fonctions de transfert rationnelles, l'optimisation est réalisée sans le calcul des pôles. La possibilité d'imposer des contraintes linéaires de type Egalite est une propriété intéressante de la méthode. Nous proposons de plus des techniques performantes pour le calcul des divers produits scalaires nécessaires a la mise en œuvre de notre méthode de réduction. La technique développée est applicable à l'étude de systèmes et à la simulation. Son application aux systèmes mimo ainsi que l'utilisation de contraintes de type inégalité pourraient être envisagées
APA, Harvard, Vancouver, ISO, and other styles
9

Simon, Frank. "Contrôle actif appliqué à la réduction du bruit interne d'aéronefs." Toulouse, ENSAE, 1997. http://www.theses.fr/1997ESAE0002.

Full text
Abstract:
Les niveaux de bruit constatés, ainsi que les exigences en matière de confort acoustique dans les aéronefs, sont tels que des traitements purement passifs, notamment dans le cas des composites, sont insuffisants pour satisfaire au cahier des charges. L'étude, tant théorique qu'expérimentale, a pour objet de mettre en évidence les mécanismes existants lors du contrôle actif vibratoire de panneaux sandwichs composites en vue de réduire le champ acoustique rayonné dans un volume fermé. Pour cela, l'excitation primaire sinusoïdale est produite par une force ponctuelle, alors que les excitations secondaires, nécessaires pour le contrôle, sont ponctuelles ou distribuées. Les capteurs de contrôle sont des microphones. Les procédures sont menées à l'aide d'algorithmes de type LMS (least Mean Square) à référence filtrée, dans le domaine temporel ou fréquentiel. Une modélisation analytique du comportement vibratoire des panneaux est réalisée. On s'intéresse en particulier à la contribution des différentes modes de structure au champ rayonné avant et après contrôle, et au cheminement de l'énergie sur la structure. Les expérimentations sont conduites sur des panneaux encastrés sur les bords, rayonnant dans une pièce assourdie, pour différentes densités modales. Les comparaisons entre les résultats théoriques et expérimentaux permettent de valider le modèle et ainsi d'expliquer les phénomènes. Les performances des deux types d'actionneurs sont comparées et les limitations de la méthode sont analysées. Enfin, des améliorations de l'algorithme sont proposées afin d'éviter des problèmes pratiques de divergence ou l'influence d'une source secondaire sur la référence.
APA, Harvard, Vancouver, ISO, and other styles
10

Zapién, Arreola Karina. "Algorithme de chemin de régularisation pour l'apprentissage statistique." Thesis, Rouen, INSA, 2009. http://www.theses.fr/2009ISAM0001/document.

Full text
Abstract:
La sélection d’un modèle approprié est l’une des tâches essentielles de l’apprentissage statistique. En général, pour une tâche d’apprentissage donnée, on considère plusieurs classes de modèles ordonnées selon un certain ordre de « complexité». Dans ce cadre, le processus de sélection de modèle revient `a trouver la « complexité » optimale, permettant d’estimer un modèle assurant une bonne généralisation. Ce problème de sélection de modèle se résume à l’estimation d’un ou plusieurs hyper-paramètres définissant la complexité du modèle, par opposition aux paramètres qui permettent de spécifier le modèle dans la classe de complexité choisie. L’approche habituelle pour déterminer ces hyper-paramètres consiste à utiliser une « grille ». On se donne un ensemble de valeurs possibles et on estime, pour chacune de ces valeurs, l’erreur de généralisation du meilleur modèle. On s’intéresse, dans cette thèse, à une approche alternative consistant à calculer l’ensemble des solutions possibles pour toutes les valeurs des hyper-paramètres. C’est ce qu’on appelle le chemin de régularisation. Il se trouve que pour les problèmes d’apprentissage qui nous intéressent, des programmes quadratiques paramétriques, on montre que le chemin de régularisation associé à certains hyper-paramètres est linéaire par morceaux et que son calcul a une complexité numérique de l’ordre d’un multiple entier de la complexité de calcul d’un modèle avec un seul jeu hyper-paramètres. La thèse est organisée en trois parties. La première donne le cadre général des problèmes d’apprentissage de type SVM (Séparateurs à Vaste Marge ou Support Vector Machines) ainsi que les outils théoriques et algorithmiques permettant d’appréhender ce problème. La deuxième partie traite du problème d’apprentissage supervisé pour la classification et l’ordonnancement dans le cadre des SVM. On montre que le chemin de régularisation de ces problèmes est linéaire par morceaux. Ce résultat nous permet de développer des algorithmes originaux de discrimination et d’ordonnancement. La troisième partie aborde successivement les problèmes d’apprentissage semi supervisé et non supervisé. Pour l’apprentissage semi supervisé, nous introduisons un critère de parcimonie et proposons l’algorithme de chemin de régularisation associé. En ce qui concerne l’apprentissage non supervisé nous utilisons une approche de type « réduction de dimension ». Contrairement aux méthodes à base de graphes de similarité qui utilisent un nombre fixe de voisins, nous introduisons une nouvelle méthode permettant un choix adaptatif et approprié du nombre de voisins
The selection of a proper model is an essential task in statistical learning. In general, for a given learning task, a set of parameters has to be chosen, each parameter corresponds to a different degree of “complexity”. In this situation, the model selection procedure becomes a search for the optimal “complexity”, allowing us to estimate a model that assures a good generalization. This model selection problem can be summarized as the calculation of one or more hyperparameters defining the model complexity in contrast to the parameters that allow to specify a model in the chosen complexity class. The usual approach to determine these parameters is to use a “grid search”. Given a set of possible values, the generalization error for the best model is estimated for each of these values. This thesis is focused in an alternative approach consisting in calculating the complete set of possible solution for all hyperparameter values. This is what is called the regularization path. It can be shown that for the problems we are interested in, parametric quadratic programming (PQP), the corresponding regularization path is piece wise linear. Moreover, its calculation is no more complex than calculating a single PQP solution. This thesis is organized in three chapters, the first one introduces the general setting of a learning problem under the Support Vector Machines’ (SVM) framework together with the theory and algorithms that allow us to find a solution. The second part deals with supervised learning problems for classification and ranking using the SVM framework. It is shown that the regularization path of these problems is piecewise linear and alternative proofs to the one of Rosset [Ross 07b] are given via the subdifferential. These results lead to the corresponding algorithms to solve the mentioned supervised problems. The third part deals with semi-supervised learning problems followed by unsupervised learning problems. For the semi-supervised learning a sparsity constraint is introduced along with the corresponding regularization path algorithm. Graph-based dimensionality reduction methods are used for unsupervised learning problems. Our main contribution is a novel algorithm that allows to choose the number of nearest neighbors in an adaptive and appropriate way contrary to classical approaches based on a fix number of neighbors
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography