Littérature scientifique sur le sujet « Algorithme de réduction de la dispersion »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Algorithme de réduction de la dispersion ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Algorithme de réduction de la dispersion"

1

Jaquet, David-Olivier. « Domaines de Voronoï et algorithme de réduction des formes quadratiques définies positives ». Journal de Théorie des Nombres de Bordeaux 2, no 1 (1990) : 163–215. http://dx.doi.org/10.5802/jtnb.25.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Fenoglietto, P., L. Bedos, P. Dubois, A. Fenoglietto, J. Dubois, N. Aillères et A. David. « Prothèses dentaires et algorithme de réduction des artéfacts métalliques pour les patients ORL ». Cancer/Radiothérapie 18, no 5-6 (octobre 2014) : 610. http://dx.doi.org/10.1016/j.canrad.2014.07.071.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Bedos, L., N. Aillères, D. Azria et P. Fenoglietto. « Évaluation de la précision des nombres Hounsfield d’un nouvel algorithme de réduction des artéfacts métalliques en radiothérapie ». Cancer/Radiothérapie 18, no 5-6 (octobre 2014) : 611. http://dx.doi.org/10.1016/j.canrad.2014.07.074.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Matignon, Michel. « Vers un algorithme pour la réduction stable des revêtements p-cycliques de la droite projective sur un corps p-adique ». Mathematische Annalen 325, no 2 (février 2003) : 323–54. http://dx.doi.org/10.1007/s00208-002-0387-4.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Lancien, Mélanie, et Marie-Hélène Côté. « Phonostyle et réduction vocalique en français laurentien ». SHS Web of Conferences 46 (2018) : 09003. http://dx.doi.org/10.1051/shsconf/20184609003.

Texte intégral
Résumé :
Cet article étudie le lien entre réduction vocalique et phonostyle en français laurentien en suivant une méthodologie proche de celle de Harmegnies et Poch-Olivé [1992,1994]. Nous avons analysé 9748 voyelles, produites par 10 locutrices issues du corpus PFC-Canada. Ces voyelles ont été produites dans trois styles de parole différents : la lecture, une conversation avec un enquêteur et une conversation avec un membre de la famille. Nous avons comparé la durée, la centralisation, la dispersion intra-catégorie et la diffusion des voyelles en fonction du style de parole. Nos ré sultats montrent un impact de la t â che de production (lecture/discussion), ainsi qu ’un impact de la relation entre le locuteur et l’interlocuteur (inconnu/famille) sur la ré alisation acoustique des voyelles. Les voyelles sont plus courtes et plus dispers é es au sein de leur caté gorie, et le système plus centralisé, en parole spontanée qu ’en lecture. Elles sont également plus courtes et plus dispersées au sein de leur catégorie lors d ’une discussion avec un membre de la famille que lors d ’une discussion avec un enquêteur inconnu.
Styles APA, Harvard, Vancouver, ISO, etc.
6

HUANG, Y., J. F. HOCQUETTE, J. L. PORRY, J. M. CHAUMET et Y. HUO. « Production de viande bovine en Chine et perspectives d’évolution ». INRA Productions Animales 28, no 3 (14 janvier 2020) : 259–70. http://dx.doi.org/10.20870/productions-animales.2015.28.3.3031.

Texte intégral
Résumé :
La consommation de viande bovine a fortement augmenté en Chine depuis la réforme économique et la politique d’ouverture du pays à la fin des années 1970. Cependant, la Chine ne possède pas de véritable filière « viande bovine » avec des partenaires professionnels organisés. De plus, la production augmente avec difficulté. Le ralentissement de la croissance de la production ces dernières années a entraîné une forte hausse du prix de la viande bovine pour le consommateur. La filière « viande bovine » chinoise est face à de nombreux problèmes techniques liés aux pratiques traditionnelles (par exemple, les bovins étaient utilisés comme force de traction pour les travaux agricoles). Ces difficultés entraînent une faible productivité de la filière et s'accompagnent d'une dégradation continue du cheptel de vaches reproductrices en raison de la dispersion des petites fermes paysannes, de la forte réduction des besoins en traction animale, de la faible valorisation des ressources fourragères, du manque de connaissances techniques de la part des petits éleveurs, et du retard dans l’amélioration génétique des races locales. L’amélioration de la technicité est nécessaire notamment pour mieux valoriser les différentes ressources alimentaires des bovins (herbe pâturée ou récoltée, coproduits) et adapter la production à la demande des consommateurs. La structuration de la filière « viande bovine » est également nécessaire pour un élevage durable qui sera amené à prendre en compte d’autres problématiques comme la protection de l’environnement et le bien-être animal.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Bettahar, M., O. Razakarisoa, F. Van Dorpe et M. Baviere. « Incidence d'une technique de décontamination par tensioactifs sur la conductivité hydraulique d'un aquifère contrôlé pollué par du gazole ». Revue des sciences de l'eau 11, no 1 (12 avril 2005) : 85–100. http://dx.doi.org/10.7202/705298ar.

Texte intégral
Résumé :
Les nappes d'eau souterraine constituent des ressources vulnérables que l'activité industrielle croissante contribue à polluer trop fréquemment. Les produits les plus manipulés se voient donc directement concernés dans les cas de pollution d'aquifères. A ce titre, les produits pétroliers, notamment ceux que l'on considère comme étant domestiques (gazole, fuel, essence, etc.) se situent au premier rang. Dans le but de mieux aborder ce type de contamination, des études sont menées sur un site expérimental de grandes dimensions et parfaitement contrôlé, dans lequel 476 l de gazole routier (GOR86) ont été déversés. Une première tentative de récupération du polluant, par infiltration de tensioactifs depuis la surface, démontre la capacité du mélange utilisé à mobiliser le polluant mais conduit à la réduction de la perméabilité du milieu poreux faisant ainsi apparaître une limitation des performances pour ce type de procédés de décontamination. Des expériences au laboratoire, conduites sur des colonnes de milieu poreux, ont été entreprises pour rechercher les causes de cette perte de conductivité hydraulique. Avec le sable considéré ici, les argiles ne jouent pas un rôle prépondérant dans le colmatage. Il est démontré également que le gradient de charge, quand il est augmenté, permet d'injecter une quantité plus importante de tensioactifs sans pour autant pallier ce problème de colmatage. Enfin, il apparaît que les tensioactifs, en présence des ions calcium, peuvent s'agglomérer pour former des associations de micelles lamellaires, cylindriques et/ou mixtes, assez volumineux pour être filtrés à la surface du sol à traiter. Au bout d'un certain temps, le milieu poreux est totalement colmaté et par conséquent le débit d'infiltration de la solution devient nul. Sur le plan de la récupération du polluant, ce paramètre s'avère être particulièrement important. Sa variation influence donc fortement les quantités de polluant mobilisé. Cette étude démontre la faisabilité du procédé. Toutefois elle souligne aussi que, sous peine de perdre de leur efficacité, les solutions de tensioactifs doivent conserver leurs caractéristiques initiales (stabilité de la taille des particules colloïdales notamment) pendant toute la durée du traitement. Dans la mesure où l'agglomération des micelles est en cause, il faudra rechercher les moyens d'obtenir une dispersion plus stable, par exemple par addition d'agents solvants.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Joy, Melanie S., Gary R. Matzke, Deborah K. Armstrong, Michael A. Marx et Barbara J. Zarowitz. « A Primer on Continuous Renal Replacement Therapy for Critically Ill Patients ». Annals of Pharmacotherapy 32, no 3 (mars 1998) : 362–75. http://dx.doi.org/10.1345/aph.17105.

Texte intégral
Résumé :
OBJECTIVE: To characterize the multiple continuous renal replacement therapy (CRRT) techniques available for the management of critically ill adults, and to review the indications for and complications of use, principles of drug removal during CRRT, drug dosage individualization guidelines, and the influence of CRRT on patient outcomes. DATA SOURCES: MEDLINE (January 1981–December 1996) was searched for appropriate publications by using terms such as hemofiltration, ultrafiltration, hemodialysis, hemodiafiltration, medications, and pharmacokinetics; selected articles were cross-referenced. STUDY SELECTION: References selected were those considered to enhance the reader's knowledge of the principles of CRRT, and to provide adequate therapies on drug disposition. DATA SYNTHESIS: CRRTs use filtration/convection and in some cases diffusion to treat hemodynamically unstable patients with fluid overload and/or acute renal failure. Recent data suggest that positive outcomes may also be attained in patients with other medical conditions such as septic shock, multiple organ dysfunction syndrome, and hepatic failure. Age, ventilator support, inotropic support, reduced urine volume, and elevated serum bilirubin concentrations have been associated with poor outcomes. Complications associated with CRRT include bleeding due to excessive anticoagulation and line disconnections, fluid and electrolyte imbalance, and filter and venous clotting. CRRT can complicate the medication regimens of patients for whom it is important to maintain drug plasma concentrations within a narrow therapeutic range. Since the physicochemical characteristics of a drug and procedure-specific factors can alter drug removal, a thorough assessment of all factors needs to be considered before dosage regimens are revised. In addition, an algorithm for drug dosing considerations based on drug and CRRT characteristics, as well as standard pharmacokinetic equations, is proposed. CONCLUSIONS: The use of CRRT has expanded to encompass the treatment of disease states other than just acute renal failure. Since there is great variability among treatment centers, it is premature to conclude that there is enhanced survival in CRRT-treated patients compared with those who received conventional hemodialysis. This primer may help clinicians understand the need to individualize these therapies and to prospectively optimize the pharmacotherapy of their patients receiving CRRT. OBJETIVO: Caracterizar las múltiples técnicas de reemplazo renal continuo (TRRC) disponibles para el manejo de pacientes adultos en estado crítico. Examinar las indicaciones de uso y complicaciones de cada técnica de TRRC, los principios de remoción de medicamentos durante TRRC, guías para individualizar la posologia, y la influencía de TRRC en los resultados clínicos obtenidos. FUENTES DE INFORMACIÓN: Se hizo una búsqueda en el sistema de informática MEDLINE en los años 1980–1996 incluyendo términos como hemofiltración, ultrafiltración, hemodialisis, hemodiafiltración, medicamentos, y farmacocinética. Además se buscaron articulos adicionales utilizando las referencias de los demás articulos selecionados. SELECCIÓN DE FUENTES DE INFORMACIÓN: La referencias seleccionadas fueron aquellas que los autores consideraron útiles para aportar conocimiento al lector sobre los principios del TRRC, así como proveer información sobre la disposición de los medicamentos. SÍNTESIS: TRRC utilizan filtración y/o convección y en algunos casos difusión para tratar pacientes hemodinamicamente inestables con sobrecarga de fluidos y/o fallo renal agudo. Información reciente sugiere que se pueden obtener resultados clínicos positivos con otras condiciones de salud tales como choque septico, síndrome de disfunción de multiples órganos, y fallo hepático. Factores como la edad, ventilación mecánica, terapia inotrópica, volumen urinario reducido, y aumento en las concentraciones de bilirubina sérica han sido asociados con resultados clínicos desfavorables. Las complicaciones asociadas con TRRC incluyen sangramiento debido a exceso de anticoagulación y desconección de la linea, desbalance de fluidos y electrolitos, y formación de coagulos venosos y en el filtro. El régimen de medicamentos se puede complicar en el paciente recibiendo TRRC cuando hay que mantener las concentraciones plasmáticas de algún fármaco dentro de un margen estrecho. Como las características fisicoquímicas del fármaco y algunos factores especificos del procedimiento pueden interactuar alterando la remoción de dicho fármaco, una evaluación detallada de todos los factores debe considerarse antes de ajustar la posologia. Se proponen un algoritmo para consideraciones sobre posología basado en las características del fármaco y del TRRC y ecuaciones farmacocinéticas estándares. CONCLUSIONES: El uso del TRRC se ha expandido para incluir el tratamiento de otras condiciones de salud además del fallo renal agudo. Debido a que existe gran variabilidad entre los centros de tratamientos es prematuro concluir que en efecto la sobrevivencia mejora en los pacientes tratados con TRRC en comparación con los que reciben hemodialisis convencional. Este compendio esperamos sea de utilidad para ayudar al practicante clínico a entender la necesidad de individualizar estas terapias y prospectivamente optimizar la farmacoterapia de los pacientes que reciban TRRC. OBJECTIF: Décrire les diverses techniques de thérapie continue de remplacement rénal (TCRR) chez les patients aux soins intensifs. Revoir les indications, les complications, les principes d'élimination des médicaments, l'individualisation des doses, et l'influence de cette thérapie sur la morbidité et mortalité des patients. REVUE DE LITTÉRATURE: Une recherche informatisée (1980–1996) a été effectuée avec les mots clés suivants: hémofiltration, ultrafiltration, hémodialyse, hémodiafiltration, médication, et pharmacocinétique ainsi que via les références d'articles obtenus. SÉLECTION DES ÉTUDES: Les références furent sélectionnées en fonction du potentiel d'augmentation du niveau de connaissance des principes de TCRR ainsi qu'en fonction de révaluation des paramètres cinétiques des médicaments. RÉSUMÉ: La TCRR utilise la filtration/la convection et dans quelques cas la diffusion pour traiter les patients instables avec une surcharge liquidienne et/ou une insuffisance rénale aiguë. Des données récentes suggèrent une amélioration de la morbidité et mortalité chez les patients traités pour un choc septique, un syndrome de dysfonction d'organes multiples, et une insuffisance hépatique. l'âge, le besoin d'un support respiratoire et hémodynamique, une réduction du volume urinaire, et un taux élevé de bilirubine sérique sont associés à un pronostic moindre. Les complications de la TCRR incluent les saignements dus à une anticoagulation excessive, des désordres liquidiens et électrolytiques, et la formation de caillots obstruant le filtre. La TCRR peut compliquer les régimes thérapeutiques de ceux où il faut maintenir des concentrations sériques dans un écart étroit. Puisque les caractéristiques physicochimiques du médicament peuvent en altérer son élimination, il importe d'évaluer tous les facteurs impliqués avant de déterminer un dosage médicamenteux. De plus, un algorithme pour aider la recommandation de dosages en fonction du médicament, des caractérisques de la TCRR, et d'équations de cinétique est présenté. CONCLUSIONS: Les indications de la TCRR ne se limitent plus à l'insuffisance rénale aiguë. étant donné la variabilité entre les centres hospitaliers, il est précoce de conclure à une survie améliorée avec ce type de thérapie par rapport à une hémodialyse standard. Cet article permettra aux cliniciens d'optimiser la thérapie des patients recevant ce type de thérapie rénale.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Elbaum, Mireille. « Justice sociale, inégalités, exclusion ». Revue de l'OFCE 53, no 2 (1 juin 1995) : 197–247. http://dx.doi.org/10.3917/reof.p1995.53n1.0197.

Texte intégral
Résumé :
Résumé La question des inégalités a été en France dans les années soixante et soixante-dix au cœur du débat social sur la répartition des fruits de la croissance. Depuis le début des années quatre- vingt, l'idée de lutter contre les inégalités s'est toutefois trouvée remise en cause comme inadéquate, voire dépassée. De nouveaux développements théoriques ont mis en avant des conceptions de la justice, qui, soit, ont semblé dessiner un consen- sus renouvelé autour de la notion d'« équité », soit se sont référés à des conceptions complexes et plurielles de la justice, nées de la confrontation de logiques multiples. Et la réinterprétation souvent simplificatrice qui en a été faite a servi, de façon détournée, à renoncer à la priorité donnée à la lutte contre les inégalités au sein des politiques économiques et sociales. Dans ce contexte, les inégalités traditionnelles de revenus, de patrimoines et de conditions de vie ont cessé de se resserrer à partir des années quatre-vingt. Les mécanismes de reproduction des « classements sociaux » n'ont de leur côté qu'assez faiblement été remis en cause, malgré les bouleversements intervenus au sein des structures professionnelles et sociales. Et la « démocratisation » de l'enseignement n'a pas, en elle-même, sensiblement infléchi « l'inégalité des chances », dans un contexte où la « norme » du diplôme comme critère d'accès à l'emploi exacerbait les attentes et les frustrations vis-à-vis de l'école. Surtout, avec le développement d'un chômage de masse, la précarité et le sous emploi ont désormais été mis en avant comme la principale des inégalités qu'avait à affronter la société française. La prise de conscience de « nouvelles formes de pauvreté », en partie révélées par le RMI, a contribué à à mettre en doute l'objec- tif global de lutte contre les inégalités, et a abouti à une utilisation de plus en plus extensive et banalisée de la notion « d'exclusion », faisant de la « lutte contre l'exclusion » une politique à part, disso- ciée du fonctionnement d'ensemble de la société. La remise en cause des inégalités a par ailleurs été opposée à un « impératif d'efficacité économique », qui, selon certaines thèses, réclamerait une dispersion salariale plus forte, et un système de prestations et de prélèvements ne pénalisant pas les accroisse- ments de revenus. La pertinence de ces thèses est cependant contestable, et le lien entre inégalités sociales et performances économiques n'a de fait guère été établi, qu'il s'agisse des disper- sions salariales dans leur ensemble, du rôle spécifique du salaire minimum, ou des effets de l'indemnisation du chômage et des minima sociaux. II apparaît en outre très dangereux d'envisager pour la France un modèle économique et social fondé sur un accroissement des inégalités, avec, le risque, en contrepartie d'une réduction du chômage apparent, de nuire à la compétitivité globale de l'économie, de développer la pauvreté et de faire basculer vers l'inactivité des travailleurs découragés par les bas salaires. Même s'il faut leur redonner de nouveaux contours et de nouvelles méthodes, les politiques globales de lutte contre les inégalités doivent être remises au centre du débat, et considérées comme l'axe majeur des réformes à apporter à l 'Etat-providence, concernant la régulation des dépenses de santé, le financement de la protection sociale, la réforme fiscale, ou la réhabilitation et la transparence d'ensemble des mécanismes de solidarité collective. D'un autre côté, l'une des critiques essentielles adressées à Г Etat-providence a porté sur ses difficultés à prendre en compte l'ampleur et la multiplicité des phénomènes d'exclusion. Elles ont pu plaider pour que l'exclusion devienne l'axe central, si ce n'est exclusif, des politiques sociales. La tentation a alors été d'opposer lutte contre l'exclusion et lutte contre les inégalités en les faisant «jouer l'une contre l'autre». Or, une telle conception se heurte aujourd'hui à des limites majeures, et c'est bien de la réhabilitation d'un objectif de justice sociale dans son ensemble, dont les politiques de lutte contre l'exclusion ont désormais besoin pour servir de guide à leur renouvellement. Ceci vaut en particulier en matière d'éducation, à travers la sectorisation géographique, les contenus pédagogiques d'enseignement et les mécanismes de sélection par l'orientation et le choix des filières. Ceci vaut également en matière de logement, où les aides aux locataires HLM et aux quartiers en difficulté butent sur l'incapacité du système d'intervention publique à maîtriser l'offre de logements et à restaurer la mobilité spatiale. Ceci vaut enfin pour la politique de l'emploi, qui, à travers la multiplication de dispositifs massifs d'insertion, a indirectement conforté un modèle de « partage de l'activité », dont le coût social et la fragilité impliquent aujourd'hui la révision.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Achour, Karim, Nadia Zenati et Oualid Djekoune. « Contribution to image restoration using a neural network model ». Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 1, 2002 (22 septembre 2002). http://dx.doi.org/10.46298/arima.1829.

Texte intégral
Résumé :
International audience The reduction of the blur and the noise is an important task in image processing. Indeed, these two types of degradation are some undesirable components during some high level treatments. In this paper, we propose an optimization method based on neural network model for the regularized image restoration. We used in this application a modified Hopfield neural network. We propose two algorithms using the modified Hopfield neural network with two updating modes : the algorithm with a sequential updates and the algorithm with the n-simultaneous updates. The quality of the obtained result attests the efficiency of the proposed method when applied on several images degraded with blur and noise. La réduction du bruit et du flou est une tâche très importante en traitement d'images. En effet, ces deux types de dégradations sont des composantes indésirables lors des traitements de haut niveau. Dans cet article, nous proposons une méthode d'optimisation basée sur les réseaux de neurones pour résoudre le problème de restauration d'images floues-bruitées. Le réseau de neurones utilisé est le réseau de « Hopfield ». Nous proposons deux algorithmes utilisant deux modes de mise à jour: Un algorithme avec un mode de mise à jour séquentiel et un algorithme avec un mode de mise à jour n-simultanée. L'efficacité de la méthode mise en œuvre a été testée sur divers types d'images dégradées.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Algorithme de réduction de la dispersion"

1

Khoder, Jihan. « Nouvel Algorithme pour la Réduction de la Dimensionnalité en Imagerie Hyperspectrale ». Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2013. http://tel.archives-ouvertes.fr/tel-00939018.

Texte intégral
Résumé :
En Imagerie hyperspectrale, les volumes de données acquises atteignent souvent le gigaoctet pour une seule et même scène observée. De ce fait, l'analyse de ces données au contenu physique complexe passe obligatoirement par une étape préliminaire de réduction de la dimensionnalité. Cette réduction a un double objectif, le premier consiste à réduire la redondance et le second permet de faciliter les traitements postérieurs (extraction, classification et reconnaissance de formes) et donc l'interprétation des données. La classification automatique est une étape importante du processus d'extraction de connaissances à partir des données. Elle vise à découvrir la structure intrinsèque d'un ensemble d'objets en formant des regroupements qui partagent des caractéristiques similaires. Dans cette thèse, nous nous intéressons à la réduction de dimension dans le cadre de la classification non supervisée des bandes spectrales. Différentes approches existent, comme celles basées sur la projection (linéaire ou non-linéaire) des données de grandes dimensions sur des sous-espaces de représentation bien choisis ou sur les techniques de sélection de bandes spectrales exploitant des critères de complémentarité-redondance d'information qui ne permettent pas de préserver toute la richesse de l'information apportée par ce type de données. 1 - Nous avons accompli une étude comparative, sur la stabilité et la similarité des algorithmes des méthodes non paramétriques et non supervisée de la projection et aussi de la sélection des bandes utilisées dans la réduction de la dimensionnalité à différents niveaux de bruit déterminés. Les tests sont effectués sur des images hyperspectrales, en classant ces derniers en trois catégories selon leur degré de performance de préserver la quantité d'informations. 2 - Nous avons introduit une nouvelle approche de critère basée sur la di-similarité des attributs spectraux et utilisée dans un espace local sur des matrices de données ; L'approche a servi pour définir un taux de préservation d'un évènement rare dans une transformation mathématique donnée. Cependant, nous avons limitée son application au contexte de la thèse liée à la réduction de la taille des données dans une image hyperspectrale. 3 - Les études comparatives ont permis une première proposition d'approche hybride pour la reduction de la taille d'une image hyperspectrale permettant une meilleure stabilité : BandClustering avec Multidimensional Scaling (MDS). Des exemples sont donnés pour démontrer l'originalité et la pertinence de l'hybridation (BandClust / MDS) de l'analyse effectuée. 4 - La tendance de l'hybridation a été généralisée par la suite en présentant un algorithme hybride adaptatif non supervisé basé sur la logique flou (Fuzzy C means), une méthode de projection comme l'analyse en composante principale (ACP) et un indice de validité d'une classification. Les classifications effectuées par Fuzzy C means permettent d'affecter chaque pixel d'une image hyperspectrale à toutes les classes avec des degrés d'appartenance variant entre 0 et 1. Cette propriété rend la méthode FCM intéressante pour la mise en évidence soit des transitions progressives entre les différentes bandes spectrales ou des hétérogénéités spectrales. Grâce à des méthodes conventionnelles appelées indices de validité de classes, nous avons déterminé le nombre optimal de classes de FCM ainsi que le paramètre de flou. Nous montrons que cette hybridation conduit à un taux de réduction pertinent dans l'imagerie hyperspectrale. Par conséquent, Cet algorithme appliqué à différents échantillons de données hyperspectrales, permet une imagerie spectrale beaucoup plus informative, notamment au niveau de l'hétérogénéité spectrale.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Khoder, Jihan Fawaz. « Nouvel algorithme pour la réduction de la dimensionnalité en imagerie hyperspectrale ». Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0037.

Texte intégral
Résumé :
En imagerie hyperspectrale, les volumes de données acquises atteignent souvent le gigaoctet pour une seule et même scène observée. De ce fait, l’analyse de ces données au contenu physique complexe passe obligatoirement par une étape préliminaire de réduction de la dimensionnalité. Cette réduction a un double objectif, le premier consiste à réduire la redondance et le second permet de faciliter les traitements postérieurs (extraction, classification et reconnaissance de formes) et donc l’interprétation des données. La classification automatique est une étape importante du processus d’extraction de connaissances à partir des données. Elle vise à découvrir la structure intrinsèque d’un ensemble d’objets en formant des regroupements qui partagent des caractéristiques similaires. Dans cette thèse, nous nous intéressons à la réduction de dimension dans le cadre de la classification non supervisée des bandes spectrales. Différentes approches existent, comme celles basées sur la projection (linéaire ou non-linéaire) des données de grandes dimensions sur des sous-espaces de représentation bien choisis ou sur les techniques de sélection de bandes spectrales exploitant des critères de complémentarité-redondance d’information qui ne permettent pas de préserver toute la richesse de l’information apportée par ce type de données
In hyperspectral imaging, the volumes of data acquired often reach the gigabyte for a single scene observed. Therefore, the analysis of these data complex physical content must go with a preliminary step of dimensionality reduction. Therefore, the analyses of these data of physical content complex go preliminary with a step of dimensionality reduction. This reduction has two objectives, the first is to reduce redundancy and the second facilitates post-treatment (extraction, classification and recognition) and therefore the interpretation of the data. Automatic classification is an important step in the process of knowledge extraction from data. It aims to discover the intrinsic structure of a set of objects by forming groups that share similar characteristics. In this thesis, we focus on dimensionality reduction in the context of unsupervised classification of spectral bands. Different approaches exist, such as those based on projection (linear or nonlinear) of high-dimensional data in a representation subspaces or on the techniques of selection of spectral bands exploiting of the criteria of complementarity-redundant information do not allow to preserve the wealth of information provided by this type of data
Styles APA, Harvard, Vancouver, ISO, etc.
3

Bélanger, Manon. « Algorithme de contrôle d'erreurs appliqué au phénomène de dispersion chromatique ». Mémoire, Université de Sherbrooke, 2008. http://savoirs.usherbrooke.ca/handle/11143/1415.

Texte intégral
Résumé :
Un algorithme de contrôle d'erreurs, utilisant les statistiques des valeurs à la sortie d'un canal de communication par fibre optique pour minimiser les erreurs induites par la dispersion chromatique, est présenté. Utilisé conjointement avec un code correcteur d'erreurs, l'algorithme permet d'améliorer considérablement les performances du décodeur. En obtenant la distribution de la puissance moyenne à la sortie du canal en fonction de la séquence de bits à l'entrée, il est possible de calculer la probabilité d'appartenance de chaque bit à chacune des séquences possibles et ainsi déterminer quel bit est le plus probable d'avoir été émis. Cet algorithme produit de très bons résultats lorsque la dispersion chromatique accumulée est élevée. En cela, il est complémentaire aux codes correcteurs d'erreurs, car ces derniers sont efficaces uniquement si le taux d'erreur initial est en deçà d'un certain seuil, seuil qui est généralement excédé lorsque la dispersion chromatique accumulée est élevée.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Bélanger, Manon. « Algorithme de contrôle d'erreurs appliqué au phénomène de dispersion chromatique ». [S.l. : s.n.], 2008.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Dessimond, Boris. « Exposition individuelle à la pollution de l’air : mesure par capteurs miniatures, modélisation et évaluation des risques sanitaires associés ». Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS297.

Texte intégral
Résumé :
La pollution de l’air contribue à dégrader la qualité de vie et à réduire l’espérance de vie des populations. L’organisation mondiale de la santé estime que la pollution de l’air est responsable de 7 millions de morts par an dans le monde. Elle participe à aggraver les maladies respiratoires, cause des cancers du poumon et des crises cardiaques. La pollution de l’air a donc des conséquences sanitaires importantes sur la vie humaine et la biodiversité. Ces dernières années, des progrès considérables ont été réalisés dans le domaine des microcontrôleurs et des modules de télécommunications. Ces derniers sont de plus efficients énergétiquement, performants, abordables, accessibles et sont responsables de l’émergence des objets connectés. Parallèlement, les récents développements des microsystèmes électromécaniques et des capteurs électrochimiques ont permis la miniaturisation des technologies permettant de mesurer de nombreux paramètres environnementaux dont la qualité de l’air. Ces avancées technologiques ont ainsi permis la conception et la production dans un cadre académique de capteurs de la qualité de l’air, portatifs, connectés, autonomes et en capacité de réaliser des acquisitions à une fréquence temporelle élevée. Jusqu’à récemment, l’un des majeurs freins à la compréhension de l’impact de la pollution de l’air sur la santé fut l’impossibilité de connaître l’exposition réelle des individus durant leur vie quotidienne ; la pollution de l’air est complexe et varie en fonction des habitudes, des activités et environnements empruntés par les individus. Ces capteurs portatifs de la qualité de l’air permettent donc de lever entièrement ce frein ainsi qu’un nombre important de contraintes. Ils sont conçus pour être utilisables en mobilité, sur de longues périodes et produisent des données granulaires, immédiatement disponibles, décrivant l’exposition à la pollution de l’air du porteur. Bien que les modules de mesure embarqués dans ces capteurs ne soient aujourd’hui pas aussi performants que les instruments de références ou la télédétection, lorsqu’il s’agit d’évaluer l’exposition individuelle à la pollution de l’air, parce qu'ils sont au plus proche des individus, ils permettent d’obtenir l’information la plus fidèle et constituent donc un outil indispensable pour l’avenir de la recherche épidémiologique. Dans ce contexte, nous avons participé au développement et à l’amélioration de deux capteurs de la qualité de l’air ; le CANARIN II et le CANARIN nano. Le CANARIN II est un capteur connecté communiquant par Wi-Fi, qui rapporte les concentrations de particules de diamètre 10, 2.5 et 1 micromètre, ainsi que les paramètres environnementaux de température, humidité et pression, chaque minute et les rend disponible en temps réel. Le CANARIN nano est, quant à lui, un capteur de plus petite taille, possédant les mêmes capacités que le CANARIN II, tout en faisant additionnellement l’acquisition des composés organiques volatils. Il est en capacité de fonctionner de manière autonome, puisque communiquant par réseau cellulaire. Deux types de résultats ont été obtenus avec les capteurs CANARIN ; d’une part, des résultats produits à partir de leur utilisation dans des conditions de vie réelle, d'autre part, des résultats en lien avec l'interprétation et la compréhension des mesures produites par les capteurs de particules dont les CANARINs sont équipés. Ces deux capteurs furent ainsi tous deux exploités par deux projets de recherche, au sein desquels nous avons accompagné le déploiement de plusieurs flottes de capteurs hétérogènes et réalisé l’analyse des données acquises. [...]
Air pollution contributes to the degradation of the quality of life and the reduction of life expectancy of the populations. The World Health Organization estimates that air pollution is responsible for 7 million deaths per year worldwide. It contributes to the aggravation of respiratory diseases, causes lung cancer and heart attacks. Air pollution has therefore significant health consequences on human life and biodiversity. Over the last few years, considerable progress has been made in the field of microcontrollers and telecommunications modules. These are more energy efficient, powerful, affordable, accessible, and are responsible for the growth of connected objects. In the meantime, the recent development of microelectromechanical systems and electrochemical sensors has allowed the miniaturization of technologies measuring many environmental parameters including air quality. These technological breakthroughs have enabled the design and production in an academic environment, of portable, connected, autonomous air quality sensors capable of performing acquisitions at a high temporal frequency. Until recently, one of the major obstacles to understanding the impact of air pollution on human health was the inability to track the real exposure of individuals during their daily lives; air pollution is complex, and varies according to the habits, activities and environments in which individuals spend their lives. Portable air quality sensors completely remove this obstacle as well as a number of other important constraints. These are designed to be used in mobility, over long periods of time, and produce immediately available granular data, which describes the exposure to air pollution of the person wearing it. Although the measurement modules embedded in these sensors are not currently as reliable as reference tools or remote sensing, when it comes to assessing individual exposure to air pollution, because they are as close as possible to the wearer, they provide the most accurate information, and are therefore an indispensable tool for the future of epidemiological research. In this context, we have been involved in the development and improvement of two air quality sensors; the CANARIN II and the CANARIN nano. The CANARIN II is a connected sensor communicating via Wi-Fi, which reports the concentration of 10, 2.5 and 1 micrometer diameter particles, as well as the environmental parameters of temperature, humidity, and pressure, every minute, making them available in real time. The CANARIN nano is a smaller sensor with the same capabilities of the CANARIN II, while additionally sensing volatile organic compounds levels. The CANARIN nano is able to operate autonomously, as it communicates through the cellular network. Two types of results have been obtained with the CANARIN sensors; on one hand, results produced from their use in real life conditions, and on the other hand, results related to the interpretation and understanding of the measurements produced by the particle sensors. These two sensors were both used in two research projects, in which we have helped deploy several heterogeneous sensor fleets and analyzed the acquired data. Firstly, in the POLLUSCOPE project funded by the French National Research Agency, where 86 volunteers from the general population wore a set of air pollution sensors for a total of 101 weeks, 35 of which the volunteers were also equipped with health sensors. Secondly, in the POLLAR project, where 43 subjects underwent polysomnography and then wore one CANARIN sensor for 10 days, thus allowing for the first time to explore the link between sleep apnea and particulate matter exposure. [...]
Styles APA, Harvard, Vancouver, ISO, etc.
6

Zapien, Durand-Viel Karina. « Algorithme de chemin de régularisation pour l'apprentissage statistique ». Phd thesis, INSA de Rouen, 2009. http://tel.archives-ouvertes.fr/tel-00557888.

Texte intégral
Résumé :
La sélection d'un modèle approprié est l'une des tâches essentielles de l'apprentissage statistique. En général, pour une tâche d'apprentissage donnée, on considère plusieurs classes de modèles ordonnées selon un certain ordre de " complexité". Dans ce cadre, le processus de sélection de modèle revient 'a trouver la " complexité " optimale, permettant d'estimer un modèle assurant une bonne généralisation. Ce problème de sélection de modèle se résume à l'estimation d'un ou plusieurs hyper-paramètres définissant la complexité du modèle, par opposition aux paramètres qui permettent de spécifier le modèle dans la classe de complexité choisie. L'approche habituelle pour déterminer ces hyper-paramètres consiste à utiliser une " grille ". On se donne un ensemble de valeurs possibles et on estime, pour chacune de ces valeurs, l'erreur de généralisation du meilleur modèle. On s'intéresse, dans cette thèse, à une approche alternative consistant à calculer l'ensemble des solutions possibles pour toutes les valeurs des hyper-paramètres. C'est ce qu'on appelle le chemin de régularisation. Il se trouve que pour les problèmes d'apprentissage qui nous intéressent, des programmes quadratiques paramétriques, on montre que le chemin de régularisation associé à certains hyper-paramètres est linéaire par morceaux et que son calcul a une complexité numérique de l'ordre d'un multiple entier de la complexité de calcul d'un modèle avec un seul jeu hyper-paramètres. La thèse est organisée en trois parties. La première donne le cadre général des problèmes d'apprentissage de type SVM (Séparateurs à Vaste Marge ou Support Vector Machines) ainsi que les outils théoriques et algorithmiques permettant d'appréhender ce problème. La deuxième partie traite du problème d'apprentissage supervisé pour la classification et l'ordonnancement dans le cadre des SVM. On montre que le chemin de régularisation de ces problèmes est linéaire par morceaux. Ce résultat nous permet de développer des algorithmes originaux de discrimination et d'ordonnancement. La troisième partie aborde successivement les problèmes d'apprentissage semi supervisé et non supervisé. Pour l'apprentissage semi supervisé, nous introduisons un critère de parcimonie et proposons l'algorithme de chemin de régularisation associé. En ce qui concerne l'apprentissage non supervisé nous utilisons une approche de type " réduction de dimension ". Contrairement aux méthodes à base de graphes de similarité qui utilisent un nombre fixe de voisins, nous introduisons une nouvelle méthode permettant un choix adaptatif et approprié du nombre de voisins.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Driant, Thomas. « Réduction de la traînée aérodynamique et refroidissement d'un tricycle hybride par optimisation paramétrique ». Thèse, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6990.

Texte intégral
Résumé :
La réduction de la traînée aérodynamique des véhicules dans un objectif de diminution de la consommation énergétique est en plein essor aussi bien pour les véhicules électriques que thermiques. Cette étude porte sur un tricycle à motorisation hybride dont la forme et le comportement aérodynamique sont à la frontière entre une motocyclette et une automobile. L'étude s'inspire des avancées scientifiques sur ces deux types de véhicules en matière d'aérodynamique. L'objectif principal est de réduire la traînée aérodynamique du véhicule par des modifications de l'enveloppe externe tout en assurant le refroidissement du moteur thermique et des composants de la chaîne électrique. On développe une optimisation topologique de la position des échangeurs sur le tricycle, on conçoit et fabrique un prototype en fonction des résultats d'optimisation. Ensuite, on valide le prototype par des essais en soufflerie et on caractérise son aérodynamique ainsi que la sensibilité de la traînée du véhicule suivant des paramètres comme la vitesse, l'angle de lacet, etc. En n, l'étude s'oriente vers une approche d'optimisation globale multidisciplinaire permettant d'atteindre l'objectif principal en fonction des contraintes ayant trait au projet.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Karina, Zapien. « Algorithme de Chemin de Régularisation pour l'apprentissage Statistique ». Phd thesis, INSA de Rouen, 2009. http://tel.archives-ouvertes.fr/tel-00422854.

Texte intégral
Résumé :
La sélection d'un modèle approprié est l'une des tâches essentielles de l'apprentissage statistique. En général, pour une tâche d'apprentissage donnée, on considère plusieurs classes de modèles ordonnées selon un certain ordre de "complexité". Dans ce cadre, le processus de sélection de modèle revient à trouver la "complexité" optimale, permettant d'estimer un modèle assurant une bonne généralisation. Ce problème de sélection de modèle se résume à l'estimation d'un ou plusieurs hyperparamètres définissant la complexité du modèle, par opposition aux paramètres qui permettent de spécifier le modèle dans la classe de complexité choisie.
L'approche habituelle pour déterminer ces hyperparamètres consiste à utiliser une "grille". On se donne un ensemble de valeurs possibles et on estime, pour chacune de ces valeurs, l'erreur de généralisation du meilleur modèle. On s'intéresse, dans cette thèse, à une approche alternative consistant à calculer l'ensemble des solutions possibles pour toutes les valeurs des hyperparamètres. C'est ce qu'on appelle le chemin de régularisation. Il se trouve que pour les problèmes d'apprentissage qui nous intéressent, des programmes quadratiques paramétriques, on montre que le chemin de régularisation associé à certains hyperparamètres est linéaire par morceaux et que son calcul a une complexité numérique de l'ordre d'un multiple entier de la complexité de calcul d'un modèle avec un seul jeu hyper-paramètres.
La thèse est organisée en trois parties. La première donne le cadre général des problèmes d'apprentissage de type SVM (Séparateurs à Vaste Marge ou Support Vector Machines) ainsi que les outils théoriques et algorithmiques permettant d'appréhender ce problème. La deuxième partie traite du problème d'apprentissage supervisé pour la classification et l'ordonnancement dans le cadre des SVM. On montre que le chemin de régularisation de ces problèmes est linéaire par morceaux. Ce résultat nous permet de développer des algorithmes originaux de discrimination et d'ordonnancement. La troisième partie aborde successivement les problèmes d'apprentissage semi supervisé et non supervisé. Pour l'apprentissage semi supervisé, nous introduisons un critère de parcimonie et proposons l'algorithme de chemin de régularisation associé. En ce qui concerne l'apprentissage non supervisé nous utilisons une approche de type "réduction de dimension". Contrairement aux méthodes à base de graphes de similarité qui utilisent un nombre fixe de voisins, nous introduisons une nouvelle méthode permettant un choix adaptatif et approprié du nombre de voisins.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Nouet, Christophe. « Réduction de l'ordre des systèmes continus, linéaires, via un processus d'orthogonalisation et un algorithme de gauss newton ». Brest, 1994. http://www.theses.fr/1994BRES2040.

Texte intégral
Résumé :
Nous avons développé une méthode d'approximation des signaux et systèmes à temps continu, optimale au sens des moindres carres. À partir de la seule connaissance de la transformée de Laplace rationnelle ou irrationnelle de la réponse, par exemple impulsionnelle ou indicielle d'un système initial, nous déterminons le meilleur modèle approche dont la réponse, soit la plus proche possible de celle du modèle original. Nous exprimons toujours le modèle approche sous forme d'une transformée de Laplace rationnelle. La qualité de l'approximation est mesurée à l'aide du critère d'erreur quadratique. La méthode élaborée, comme toute technique optimale, nécessite la mise en place d'un processus itératif d'optimisation. La première phase utilisant des équations linéaires, calcule le meilleur numérateur pour un dénominateur donné. La seconde permettant d'ajuster progressivement le dénominateur fait intervenir des équations non linéaires que nous linéarisons par un processus de type gauss-newton. Grâce a une technique d'orthogonalisation des fonctions d'approximation basée sur l'utilisation des tableaux de Routh, nous évitons la résolution des systèmes linéaires et par conséquent le calcul et l'inversion de matrices souvent mal conditionnées. La meilleure solution minimisant le critère d'erreur quadratique est obtenue par une expression explicite, dans laquelle ne figurent plus que des matrices d'orthogonalisation dont nous avons proposé une détermination originale. Pour cette nouvelle approche de l'approximation, la gestion spécifique des pôles réels ou complexes, simples ou multiples, est évitée. Tous les paramètres étant réels, les calculs s'effectuent en arithmétique réelle. De plus, dans le cas de fonctions de transfert rationnelles, l'optimisation est réalisée sans le calcul des pôles. La possibilité d'imposer des contraintes linéaires de type Egalite est une propriété intéressante de la méthode. Nous proposons de plus des techniques performantes pour le calcul des divers produits scalaires nécessaires a la mise en œuvre de notre méthode de réduction. La technique développée est applicable à l'étude de systèmes et à la simulation. Son application aux systèmes mimo ainsi que l'utilisation de contraintes de type inégalité pourraient être envisagées
Styles APA, Harvard, Vancouver, ISO, etc.
10

Ndongo, Fokoua Georges. « Etude expérimentale de la réduction de traînée par injection de bulles ». Thesis, Brest, 2013. http://www.theses.fr/2013BRES0095/document.

Texte intégral
Résumé :
Cette thèse porte sur l’étude expérimentale de la réduction de traînée par injection de bulles. Le contexte de l’étude est lié à la propulsion navale. Les bulles peuvent, lorsqu’elles sont injectées dans la couche limite en développement le long des carènes de navires, contribuer à réduire significativement la résistance de frottement, en allégeant d’une part le fluide le long de la coque et d’autre part en interagissant avec les structures turbulentes de proche paroi. La configuration expérimentale retenue pour cette étude est l’écoulement de Taylor-Couette, avec cylindre extérieur fixe et injection de bulles calibrées. Nos investigations portent sur les régimes de transition, de turbulence naissante et turbulent avec persistance des cellules de Taylor (Re≤20.104). La taille des bulles varie avec le capillaire et le mélange utilisés, entre 0,05 et 0,12 fois la largeur de l’entrefer. Une méthode originale de suivi de la phase dispersée dans un plan méridien, couplée à des mesures de couple global appliqué au cylindre intérieur ont permis de mettre en évidence deux régimes de réduction de traînée et plusieurs types d’arrangements des bulles, en fonction de leur taille et du nombre de Reynolds. Les bulles peuvent avoir une trajectoire glissante, oscillante, être capturées par les cellules de Taylor ou en proche paroi du cylindre intérieur dans les zones de jets sortants. La caractérisation par PIV des vitesses de la phase liquide en monophasique et diphasique a permis d’étudier les modifications induites par les bulles sur la phase liquide et de discuter des mécanismes impliqués dans la modification du couple global par la présence des bulles. Il ressort de cette étude que pour les nombres de Reynolds en deçà de la capture, les bulles contribuent à stabiliser l’écoulement en accord avec une réduction du couple visqueux pouvant atteindre -30% pour des taux de vide très faible (< 1%). Pour des nombres de Reynolds plus élevés, la capture dans les cellules conduit à une réduction de la longueur d’onde axiale et une augmentation de la vorticité des cellules, associée à une augmentation des vitesses rms. Cette configuration est favorable à une augmentation du couple visqueux. A l’inverse, la capture des bulles dans le jet sortant conduit à une augmentation de la longueur d’onde axiale, associée à une diminution de la vorticité. Cette configuration est favorable à une réduction du couple visqueux, moins marquée qu’en absence de capture
This work presents experimental study of drag reduction by injection of bubbles. Injection of bubbles into the developing boundary layer along the hulls of ships could help to reduce significantly the frictional resistance by lowering a fluid along the hull and interacting with the near-wall turbulent structures. We investigate the interactions between bubbles, the coherent motion and the viscous torque in a Taylor-Couette flow for outer cylinder at rest, while bubbles are injected constantly through a needle. The Reynolds number ranges up to Re≤20.104, for these values of the Reynolds number, Taylor vortices are persistent leading to an axial periodicity of the flow. Bubbles size varies between 0.05 and 0.12 times the width of the gap, depending on the needle and the liquid used. An original method for tracking bubbles in a meridian plane coupled with measures of overall torque applied to the inner cylinder helped to highlight two regimes of drag reduction and various types of arrangements of bubbles, depending on their size and Reynolds number. Bubbles could have a sliding motion, wavering, be captured by the Taylor cells or in the outflow areas near the inner cylinder. Characterization of the liquid velocity by PIV both in single phase and two-phase flow helped to study the modifications induced by the bubbles on the liquid phase and to discuss about the mechanisms involved in the changes induced by the bubbles in the overall torque. The study show that for the Reynolds number before the capture, bubbles could help to stabilize the flow in agreement to the reduction of the viscous torque up to -30% for lowest void fraction (<1%). For the Reynolds number after the capture, bubbles trapped by the Taylor cells lead to a reduction of the axial wavelength and increasing of the vorticity of the cells, associated to an increasing of the rms. This configuration leads to an increasing of the viscous torque. However, bubbles trapped in the outflow areas near the inner cylinder lead to an increasing of the axial wavelength, associated to a decreasing of the vorticity. The configuration supports a smaller reduction of the viscous torque than in the case without captured
Styles APA, Harvard, Vancouver, ISO, etc.

Chapitres de livres sur le sujet "Algorithme de réduction de la dispersion"

1

PONT, Caroline, et Jérôme SALSE. « Retracer l’origine de la culture des blés ». Dans Génétique des domestications, 165–81. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9167.ch9.

Texte intégral
Résumé :
Les pratiques culturales et de récolte dans la région du Croissant Fertile il y a environ 12 000 ans, pour faire face à un brusque refroidissement, ont sélectionné et façonné des blés domestiqués qui se caractérisent par la non dispersion spontanée de grains de plus grande taille, une réduction des périodes de dormance et de floraison et une germination optimale.
Styles APA, Harvard, Vancouver, ISO, etc.
2

FAILLE, Arnaud. « Faune souterraine et biogéographie ». Dans La biogéographie, 159–80. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9060.ch6.

Texte intégral
Résumé :
Le milieu souterrain comprend des vides de toute taille dans lesquels la vie peut se développer dans des conditions aphotiques, souvent déconnectées des fluctuations saisonnières et largement oligotrophes. Une faible proportion d'organismes vivants a pu évoluer et s'adapter à de telles conditions. Certains d'entre eux sont devenus strictement dépendants de cet environnement hostile, au prix d'un ensemble d'adaptations biologiques profondes. Leurs adaptations physiologiques, biologiques et morphologiques ont convergé vers une réduction drastique de la capacité de dispersion et du flux génique entre les populations. Combinés à l'extrême fragmentation de nombreux habitats souterrains, ces traits font de la faune souterraine un modèle particulièrement intéressant par rapport à la faune de surface pour explorer l'impact de la fragmentation de l'habitat sur la spéciation, la diversification et les radiations évolutives, en particulier pour définir et dater les barrières à la dispersion sur la base de preuves géologiques et hydrogéologiques.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie