Literatura académica sobre el tema "Accélération méthodes à noyaux"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Accélération méthodes à noyaux".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "Accélération méthodes à noyaux"

1

Faucher, D., P. F. Rasmussen y B. Bobée. "Estimation non paramétrique des quantiles de crue par la méthode des noyaux". Revue des sciences de l'eau 15, n.º 2 (12 de abril de 2005): 515–41. http://dx.doi.org/10.7202/705467ar.

Texto completo
Resumen
La détermination du débit de crue d'une période de retour donnée nécessite l'estimation de la distribution des crues annuelles. L'utilisation des distributions non paramétriques - comme alternative aux lois statistiques - est examinée dans cet ouvrage. Le principal défi dans l'estimation par la méthode des noyaux réside dans le calcul du paramètre qui détermine le degré de lissage de la densité non paramétrique. Nous avons comparé plusieurs méthodes et avons retenu la méthode plug-in et la méthode des moindres carrés avec validation croisée comme les plus prometteuses. Plusieurs conclusions intéressantes ont été tirées de cette étude. Entre autres, pour l'estimation des quantiles de crue, il semble préférable de considérer des estimateurs basés directement sur la fonction de distribution plutôt que sur la fonction de densité. Une comparaison de la méthode plug-in à l'ajustement de trois lois statistiques a permis de conclure que la méthode des noyaux représente une alternative intéressante aux méthodes paramétriques traditionnelles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Vincent, Patrick y Andre Roger. "Accélération des méthodes de gradient utilisées pour 1’optimisation des antennes filaires". Annals of Telecommunications 43, n.º 5-6 (mayo de 1988): 251–55. http://dx.doi.org/10.1007/bf02995085.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

HOUDEBINE, L. M. "Les manipulations génétiques : comment améliorer la croissance". INRAE Productions Animales 3, n.º 3 (4 de julio de 1990): 207–14. http://dx.doi.org/10.20870/productions-animales.1990.3.3.4377.

Texto completo
Resumen
Les récents développements de la génétique moléculaire offrent désormais la possibilité d’isoler virtuellement n’importe quel gène, de le muter in vitro, de modifier ses éléments régulateurs, de le réintroduire dans des cellules ou des organismes entiers (transgénèse) et donc, de moduler à volonté une fonction physiologique donnée. Ces possibilités ont été et sont encore appliquées à la fonction de croissance. Ainsi, les gènes du GRF (Growth Releasing Factor), de la GH (Growth Hormone) et de l’IGF1 (Insulin-like Growth Factor) ont été introduits dans des embryons de divers animaux. Ces transgènes se sont exprimés et ont conduit à une accélération de la croissance et à une augmentation de la taille des animaux accompagnée d’un assez profond changement de leur métabolisme. L’incapacité de moduler finement l’expression des transgènes chez les animaux transgéniques se traduit par une sécrétion exacerbée des hormones qui, elle-même, induit une série de désordres physiologiques rendant les animaux transgéniques peu performants. La transgénèse, si elle est devenue une routine chez la souris dans un certain nombre de laboratoires, reste difficilement réalisable à grande échelle chez la plupart des animaux domestiques. Des études approfondies sur les mécanismes de contrôle de l’expression des transgènes et sur les méthodes de transgénèse doivent donc être menées à bien pour que les manipulations génétiques deviennent une réalité dans les techniques d’élevage.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Djité, Paulin G. "Correcting Errors in Language Classification". Language Problems and Language Planning 12, n.º 1 (1 de enero de 1988): 1–13. http://dx.doi.org/10.1075/lplp.12.1.01dji.

Texto completo
Resumen
SOMMAIRE Corriger des erreurs dans la classification langagière: Noyau monolingue et satellites multilingues Cet article présente un exemple de division langagière arbitraire (Guéré/Wo-bé), et montre pourquoi il est possible de soutenir qu'il existe en Côte d'Ivoire des noyaux monolingues et des dialectes périphériques. La nomenclature des langues en Côte dlvoire et en Afrique exagère la diversité linguistique et donne une fausse impression de désunion des populations. Cet article propose l'intégration des données sociolinguistiques, telles que les attitudes langagières, dans les méthodes d'analyse de la classification langagière et prétend que cette nouvelle approche aura des implications importantes pour la planification langagière et les politiques de langues en Côte d'Ivoire et en Afrique. RESUMO Korekti erarojn en lingvo-klasifado: Unulingvaj nukleoj kaj multlingvaj satelitoj Tiu ci artikolo priskribas kazon de arbitraj lingvolimoj (Guéré kontraǔ Wobé), kaj montras kiel oni povas argumenti, ke troviĝas en Ebura Bordo unulingva nukleo kun multlingvaj satelitoj. Konstatoj pri la nombro de lingvoj en Ebura Bordo kaj en Afriko generale emas troigi la lingvan diversecon kaj donas impreson pri disdivideco de la enloĝantaro esence faisan. La artikolo proponas integrigon de donitaĵoj pri lingvosinteno (memraportaĵoj) en analizajn metodojn de lingvo-klasifado kaj atentigas pri la implicoj de tia aliro al lingvoplanado kaj lingvopolitiko en Ebura Bordo kaj en Afriko.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

BOLET, G. y L. BODIN. "Les objectifs et les critères de sélection : Sélection de la fécondité dans les espèces domestiques". INRAE Productions Animales 5, HS (2 de diciembre de 1992): 129–34. http://dx.doi.org/10.20870/productions-animales.1992.5.hs.4276.

Texto completo
Resumen
Pour toutes les espèces et pratiquement quel que soit leur type de production, l’amélioration de la reproduction fait partie des objectifs de sélection. Fertilité et prolificité (composantes de la fécondité), mais aussi rythme de mise-bas et durée de carrière sont les principaux caractères qui se combinent, de manière spécifique à chaque espèce du fait d’interactions entre rythmes biologiques et facteurs de milieu, pour former la carrière reproductive de la femelle, évaluée par la productivité numérique. Une sélection basée sur une mesure de la taille de portée est la méthode la plus classique, dans les élevages expérimentaux ou à partir d’un programme de contrôle de performances en ferme, pour l’amélioration génétique de la fécondité. Mais la faible héritabilité de la taille de portée et la faible intensité de sélection praticable ont le plus souvent limité son efficacité, qui peut être améliorée par l’ouverture de la population fermée à une base de sélection la plus large possible, grâce au contrôle de performances en élevage, et à l’utilisation de modèles statistiques permettant de prendre en compte toute l’information disponible dans la population. Des méthodes de sélection alternatives sont en cours d’expérimentation : sélection sur un critère "global", prenant en compte à la fois la fertilité et la prolificité, sélection sur les composantes de la taille de portée, soit en combinant le taux d’ovulation et de survie embryonnaire en un index additif "optimum", soit en sélectionnant sur une des composantes de la taille de portée, sélection sur d’autres critères indirects liés plus ou moins directement à la fécondité de la femelle, recherches de gènes majeurs. En ce qui concerne les travaux expérimentaux en cours, on notera que l’utilisation du contrôle de performances en ferme pour détecter des génotypes extrêmes et constituer des noyaux de sélection est une démarche assez générale. Dans les différentes espèces considérées, à des degrés divers, des programmes de contrôle de performances, en ferme et / ou en station, permettent d’enregistrer des données de productivité numérique avec différentes applications, allant d’un simple appui technique aux éleveurs à un programme collectif d’amélioration génétique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Mogwo, Patrick Sendeke, Justin Esimo Mboloko, Eloge Mbaya Ilunga y Arsène Lobota Mputu. "Gyneco obstetrical outcomes after abdominal myomectomy in a Congolese setting population, in the Democratic Republic of the Congo". Annales Africaines de Medecine 16, n.º 3 (22 de junio de 2023): 5179–89. http://dx.doi.org/10.4314/aamed.v16i3.4.

Texto completo
Resumen
Context and objectives. Although myomectomy is still the most frequent surgery for infertility, data on its impact on pregnancy rate is scarce in Kinshasa, Democratic Republic of Congo (DRC). The present study aimed to describe the clinical profile and the outcome of patients after myomectomy in the context of infertility. Methods. This was a retrospective serial cases study including patients that sought care for infertility and underwent myomectomy at the Kinshasa University Hospital and Edith Medical Center from January 1999 to December 2018. Results. The frequency of myomectomies was 45.47 %. The mean age of the patients was 35.84 ± 5.32 years; the majority (67.5 %) was nulliparous. No significant relationship was noted between the number and weight of myomas with age. After myomectomy, the rate of conception was 16%; primiparous and large multiparas were twice more likely to conceive than nulliparas (OR 2.1385 [CI 95%: 1.2477 - 3.6653] p = 0.006) and (OR 1.5833 [1.232 - 14.467] p = 0.007). Compared to those with one myoma, the removal of 2, 3 and 4 to 10 myomas was associated with 5, 9 and 18 times more chance to conceive (OR 5.1929 [CI 95%: 1.2333 - 21.8652] p = 0.025) (OR 9.2499 [1.900 - 45.0237] p = 0.006) (17.8147 [4.753 - 66.7658] p < 0.0001 respectively. Patients for whom myoma weighed between 501 and 1000 grams were 3 times more likely to conceive (OR 3.1388 [95% CI: 1.8326 - 5.3760] p = 0.000) than those with less than 500 grams. Births at term were perfomed by caesarean section. Conclusion. Myomectomy improves the rate of conception. French Abstract Contexte et objectifs. Bien que la myomectomie soit connue l’intervention la plus pratiquée en infertilité, les données sur son impact sur la conception sont fragmentaires. La présente étude avait pour objectif de décrire le profil clinique des patientes myomateux ayant consulté pour infertilité et le devenir post myomectomie. Méthodes. C’était une étude documentaire d’une série des patientes avec myome ayant subi une myomectomie aux Cliniques universitaires de Kinshasa et au Centre Médical Edith, entre janvier 1999 et décembre 2018. Résultats. La fréquence de myomectomie était de 45,4 %. Leur âge moyen était de 35,8 ± 5,3 ans. Après myomectomie, le taux de conception était de 16 % ; les primipares et les grandes multipares avaient 2 fois plus de chance de concevoir que les nullipares (OR 2,1 [IC 95% : 1,2 – 3,6] p=0,006) et (OR 1,5 [1,2 – 14,4] p=0,007). Comparée à celles qui n’avaient qu’un seul noyau, l’énucléation de 2, 3 et 4 à 10 noyaux conférerait une chance de conception respectivement de 5, 9 et 17 fois plus élevée (OR 5,1 [1,2 - 21,8] p = 0,025) (OR 9,2 [1,9 –45,02] p = 0,006) (17,8 [4,7 - 66,7] p < 0,0001). Les patientes chez qui les noyaux avaient pesé entre 501 et 1000 grammes avaient 3 fois plus de chance de concevoir (OR 3,1 [1,8 – 5,3] p< 0,0001) que celles chez les myomes pesaient moins de 500 grammes. Les accouchements étaient réalisés par césarienne donnant des nouveau-nés vivants. Conclusion. La myomectomie améliore le taux de conception. Mots-clés : Infertilité, Kinshasa, Myomectomie, Conception Reçu le 10 novembre 2022, Accepté le 21 avril 2023
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Passet, Olivier, Christine Rifflart y Henri Sterdyniak. "Ralentissement de la croissance potentielle et hausse du chômage". Revue de l'OFCE 60, n.º 1 (1 de enero de 1997): 109–46. http://dx.doi.org/10.3917/reof.p1997.60n1.0109.

Texto completo
Resumen
Résumé Depuis 1973, la croissance des pays industrialisés a fortement ralenti. Dans certains pays (Etats-Unis, Japon), le taux de chômage n'a pas été affecté. Au contraire, la quasi-totalité des pays européens ont connu une hausse tendancielle du chômage. Quelle est la part du ralentissement de la croissance qui s'explique par celui de la croissance potentielle ? Le taux de chômage d'équilibre a-t-il augmenté en Europe ? Cette augmentation est-elle une cause ou une conséquence du ralentissement de la croissance potentielle ? Cet article propose une synthèse théorique et empirique des liens entre croissance potentielle et chômage dans les pays industrialisés, et plus particulièrement en Europe. La croissance potentielle peut être définie comme le niveau maximal de production soutenante sans accélération de l'inflation. Si certains cherchent à la mesurer par des méthodes purement statistiques, seule l'approche structurelle par des fonctions de productions explicites est satisfaisante. Sa mise en œuvre par les organismes internationaux aboutit à deux conclusions fortes pour l'Europe : la faiblesse de la croissance potentielle actuelle (de 2,1 à 2,3 % l'an) et le bas niveau de l'écart de production en 1995 (-0,3 % pour la CE, -1,5 % pour l'OCDE, - 2,2 % pour le FMI). Mais ces évaluations sous-estiment les disponibilités tant en ce qui concerne le facteur travail, que le facteur capital et le progrès technique. Quatre causes peuvent être évoquées pour expliquer le ralentissement de la croissance potentielle : une baisse exogène du progrès technique (qui demeure largement inexpliquée dans les études empiriques, qu'elles soient fondées sur des modèles traditionnels de croissance ou sur les divers schémas de la théorie de la croissance endogène) ; les rigidités du marché du travail (qui expliquent que le ralentissement du progrès technique provoque une certaine hausse du chômage d'équilibre, mais celle-ci est inférieure à la hausse constatée du chômage), l'insuffisance de l'accumulation du capital (mais celle-ci n'a pas représenté une contrainte durable en Europe malgré la baisse de la profitabilité des entreprises) ; enfin, l'impact de la croissance effective sur la croissance potentielle. Selon nous, la croissance effective est en Europe depuis de nombreuses années inférieure à la croissance potentielle. L'actuel déficit de production est bien plus important que ceux couramment admis comme en témoignent la tendance à la déflation, le haut niveau de chômage, la faiblesse des hausses de salaires, la bonne situation financière des entreprises. La production potentielle n'est pas actuellement une contrainte à la croissance et à la création d'emplois en Europe. Cette zone souffre essentiellement du manque de dynamisme de sa demande, due à son incapacité à mettre en oeuvre des politiques économiques appropriées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

SAUVANT, D. "Avant-propos". INRAE Productions Animales 14, n.º 5 (17 de diciembre de 2001): 283. http://dx.doi.org/10.20870/productions-animales.2001.14.5.3752.

Texto completo
Resumen
Différentes raisons nous ont amenés à consacrer ce numéro spécial de la revue Productions Animales aux matières grasses dans l’alimentation animale. L’équilibre lipides/protéines des produits animaux représente, depuis des décennies, un critère essentiel de leur qualité. L’objectif général des actions de sélection et des pratiques alimentaires a été de réduire le niveau d’engraissement des carcasses. Ces actions étaient confortées par le fait que des animaux plus maigres sont de meilleurs transformateurs des aliments. Dans le cas du lait, les objectifs étaient et sont différents dans la mesure où le mode de paiement à la qualité tend à favoriser la teneur en matières grasses du lait. Cependant, dans le cas des vaches laitières, compte tenu de l’excès relatif global des matières grasses par rapport aux protéines laitières, il a été nécessaire de mettre en place des quotas de production de matière grasse. L’intérêt des filières pour la qualité des lipides animaux n’est pas récent. Ainsi, des publications de près de 50 ans d’âge évoquent déjà l’usage de critères subjectifs d’évaluation de la "tenue" du gras des carcasses ainsi que de la "tartinabilité" du beurre. Les premières méthodes objectives d’évaluation de la qualité des lipides animaux (indices d’iode et d’estérification …) ont permis des approches plus rationnelles. Une accélération marquée du progrès est survenue dans les années 60 grâce à l’apparition des techniques de chromatographie en phase gazeuse qui ont permis de quantifier individuellement les proportions des différents acides gras au sein d’une même matière grasse. Les matières grasses animales sont ainsi apparues plus riches en acides gras saturés que les matières grasses végétales (graisses de coprah et de palmiste exclues) et plus pauvres en acides gras essentiels. Les études de nutrition et de physiopathologie humaine ont abouti à une critique de la teneur excessive des aliments en acides gras saturés. De ce fait, les lipides animaux ont eu mauvaise presse dans les milieux de la diététique. Les recherches ont permis de mieux connaître les causes de variation de la composition en acides gras des produits animaux. Il est ainsi apparu que les matières grasses des différentes espèces animales ne présentaient pas la même composition ni le même degré de saturation, celui-ci étant en particulier plus faible chez les monogastriques que chez les ruminants. Les investigations plus récentes ont permis de mieux connaître des acides gras restés longtemps moins connus car plus difficiles à mesurer dans les lipides animaux et qualifiés de mineurs. Il s’agit en particulier d’acides gras à molécules ramifiées ou bien de certains isomères désaturés de type trans alors que la plupart des aliments contiennent des acides gras désaturés de type cis. Certains de ces acides sont l’objet d’un intérêt récent et important en raison de leur probable impact favorable sur la physiologie humaine. C’est par exemple le cas des acides gras désaturés trans conjugués de l’acide linoléique, en particulier le CLA (conjugated linoleic acid) ou acide ruménique. Ce dernier nom vient du fait que cet acide est élaboré dans le rumen des ruminants et se retrouve essentiellement dans les lipides corporels ou laitiers de ces animaux. L’alimentation en matières grasses des animaux présente également un regain d’intérêt en raison des modifications des sources alimentaires disponibles. En effet, les événements récents, liés à l’ESB, qui ont perturbé les filières animales ont eu pour conséquence l’interdiction des farines et des matières grasses d’origine animale dans l’alimentation des animaux d’élevage terrestres. Celles-ci étaient utilisées depuis au moins un siècle dans certains régimes, des porcs et volailles en particulier, dans le but d’améliorer la valeur énergétique des rations et d’obtenir des matières grasses animales présentant une couleur plus appréciée (blanche), une meilleure tenue et surtout une moindre sensibilité à l’oxydation (charcuterie sèche …). La substitution des matières grasses animales par des matières grasses d’origine végétale soulève un certain nombre de problèmes, zootechniques et technologiques, qui sont évoqués dans ce document. Nous tenons à remercier très sincèrement tous nos collègues qui ont accepté de contribuer à la réalisation de ce document qui fait suite à une journée CAAA (Cycle Approfondi de l’Alimentation Animale) organisé le 4 mai 2000 sur le même thème à l’INAPG.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Vandevelde, Anaïs, Lucie Métivier y Sonia Dollfus. "Impact cérébral structurel et fonctionnel de la Clozapine chez les patients souffrant de schizophrénie : revue systématique des études longitudinales en neuroimagerie: Structural and functional impact of clozapine in patients with schizophrenia: systematic review of neuroimaging longitudinal studies". Canadian Journal of Psychiatry, 2 de noviembre de 2020, 070674372096645. http://dx.doi.org/10.1177/0706743720966459.

Texto completo
Resumen
Objectif : L’objectif de cette revue est d’identifier les corrélats anatomo-fonctionnels cérébraux lors d’un traitement par clozapine (CLZ) ainsi que les marqueurs anatomo-fonctionnels prédictifs de la réponse à la CLZ. Méthodes : Nous avons réalisé une revue systématique de la littérature avec les bases de données MEDLINE et Web of Science afin d’identifier et d’examiner toutes les études longitudinales en neuroimagerie investiguant l’impact cérébral de la CLZ. Résultats : 30 études ont été incluses et analysées. La CLZ induit une diminution du volume et de la perfusion dans les noyaux gris centraux chez les patients répondeurs. Un plus grand volume de substance grise et perfusion dans ces structures avant l’instauration de la CLZ étaient associés à une meilleure réponse au traitement. La diminution de volume et de perfusion au niveau du cortex préfrontal (CPF) est observée malgré l’instauration de CLZ mais de façon moins importante chez les patients sous CLZ que chez les patients sous antipsychotiques typiques. Un plus grand volume au niveau du CPF avant l’instauration de la CLZ est associé à une meilleure réponse clinique dans la majorité des études. Enfin, la CLZ semble induire une réduction des altérations au niveau de la substance blanche. Conclusion : Les corrélats anatomo-fonctionnels de la CLZ différent de ceux des autres antipsychotiques avec une action spécifique de la CLZ au niveau des ganglions de la base et du CPF pouvant participer à sa supériorité en termes de réponse clinique. Plusieurs données cliniques et d’imagerie conduisent à l’hypothèse d’un meilleur pronostic associé à une instauration plus rapide de la CLZ.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Administrateur- JAIM, DIOP Abdoulaye Dione, NIANG Fallou Galass, AIDARA Chérif Mouhamadou, TOURE kamador, DIOP Abdoulaye Ndoye y BA Sokhna. "Forme familiale d’atrophie multi-systématisée : apport de l’imagerie par résonnance magnétique". Journal Africain d'Imagerie Médicale (J Afr Imag Méd). Journal Officiel de la Société de Radiologie d’Afrique Noire Francophone (SRANF). 14, n.º 3 (19 de diciembre de 2022). http://dx.doi.org/10.55715/jaim.v14i3.394.

Texto completo
Resumen
Objectives: Describe the MRI semiology that should suggest the diagnosis of MSA in case of atypical Parkinsonian syndrome. Materials and methods: on MRI we explored four patients, belonging to a large consanguineous family of which 21 members presented an atypical parkinsonian syndrome meeting the consensual diagnostic criteria of AMS. The examinations were carried out with an MRI of 1.5 tesla in sequences weighted in T1, T2, FLAIR, diffusion, 3D TOF and 3D T1 after injection of gadolinium Results: Diffuse cerebellar atrophy associated with involvement to the middle cerebellar peduncles and brainstem with « hot cross bun sign » was noted in all 4 patients. On the supratentorial level, bi-parietal atrophy was found in 2 patients and bilateral hippocampal atrophy in one patient. No involvement of the basal ganglia, white matter, cranial nerves along their cisternal path or pathological contrast enhancement was noted. Conclusion: Good knowledge of the MRI semiology of MSA associated with clinical findings makes possible to diagnose this neurodegenerative condition and differentiate it from other causes of atypical Parkinsonian syndrome. RESUME Objectifs : décrire la sémiologie IRM devant faire évoquer le diagnostic d’AMS devant un syndrome parkinsonien atypique. Matériels et méthodes : nous avons explorés à l’IRM quatre patients, appartenant à une grande famille consanguine dont 21 membres présentaient un syndrome parkinsonien atypique répondant aux critères diagnostiques consensuels de l’AMS. Les examens étaient réalisés avec une IRM de 1,5 tesla en séquences axiales T1, T2, FLAIR, diffusion, 3D TOF et 3D T1 après injection de gadolinium. Résultats : une atrophie cérébelleuse diffuse associée à une atteinte des pédoncules cérébelleux moyens et du tronc cérébral avec signe de la croix pontique était notée chez les 4 patients. A l’étage sus-tentoriel une atrophie bipariétale été retrouvée chez 2 patients et une atrophie hippocampique bilatérale chez un patient. Il n’était pas noté d’atteinte des noyaux gris centraux, de la substance blanche, des nerfs crâniens sur leur trajet cisternal ni de prise de contraste pathologique. Conclusion : la bonne connaissance de la sémiologie IRM de l’AMS associée aux constations cliniques permet de poser le diagnostic de cette affection neurodégénérative et de la différencier des autres causes de syndrome parkinsonien atypique.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Tesis sobre el tema "Accélération méthodes à noyaux"

1

Cherfaoui, Farah. "Echantillonnage pour l'accélération des méthodes à noyaux et sélection gloutonne pour les représentations parcimonieuses". Electronic Thesis or Diss., Aix-Marseille, 2022. http://www.theses.fr/2022AIXM0256.

Texto completo
Resumen
Les contributions de cette thèse se divisent en deux parties. Une première partie dédiée à l’accélération des méthodes à noyaux et une seconde à l'optimisation sous contrainte de parcimonie. Les méthodes à noyaux sont largement connues et utilisées en apprentissage automatique. Toutefois, la complexité de leur mise en œuvre est élevée et elles deviennent inutilisables lorsque le nombre de données est grand. Nous proposons dans un premier temps une approximation des Ridge Leverage Scores. Nous utilisons ensuite ces scores pour définir une distribution de probabilité pour le processus d'échantillonnage de la méthode de Nyström afin d’accélérer les méthodes à noyaux. Nous proposons dans un second temps un nouveau framework basé sur les noyaux, permettant de représenter et de comparer les distributions de probabilités discrètes. Nous exploitons ensuite le lien entre notre framework et la Maximum Mean Discrepancy pour proposer une approximation précise et peu coûteuse de cette dernière. La deuxième partie de cette thèse est consacrée à l’optimisation avec contrainte de parcimonie pour l’optimisation de signaux et l’élagage de forêts aléatoires. Tout d’abord, nous prouvons sous certaines conditions sur la cohérence du dictionnaire, les propriétés de reconstruction et de convergence de l’algorithme Frank-Wolfe. Ensuite, nous utilisons l'algorithme OMP pour réduire la taille de forêts aléatoires et ainsi réduire la taille nécessaire pour son stockage. La forêt élaguée est constituée d’un sous-ensemble d’arbres de la forêt initiale sélectionnés et pondérés par OMP de manière à minimiser son erreur empirique de prédiction
The contributions of this thesis are divided into two parts. The first part is dedicated to the acceleration of kernel methods and the second to optimization under sparsity constraints. Kernel methods are widely known and used in machine learning. However, the complexity of their implementation is high and they become unusable when the number of data is large. We first propose an approximation of Ridge leverage scores. We then use these scores to define a probability distribution for the sampling process of the Nyström method in order to speed up the kernel methods. We then propose a new kernel-based framework for representing and comparing discrete probability distributions. We then exploit the link between our framework and the maximum mean discrepancy to propose an accurate and fast approximation of the latter. The second part of this thesis is devoted to optimization with sparsity constraint for signal optimization and random forest pruning. First, we prove under certain conditions on the coherence of the dictionary, the reconstruction and convergence properties of the Frank-Wolfe algorithm. Then, we use the OMP algorithm to reduce the size of random forests and thus reduce the size needed for its storage. The pruned forest consists of a subset of trees from the initial forest selected and weighted by OMP in order to minimize its empirical prediction error
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Loosli, Gaëlle. "Méthodes à noyaux pour la détection de contexte : vers un fonctionnement autonome des méthodes à noyaux". Rouen, INSA, 2006. http://www.theses.fr/2006ISAM0009.

Texto completo
Resumen
Permettre à des applications d'accéder à leur contexte ouvre un nombre important de perspectives dans l'interaction homme-machine. Les nombreux travaux visant à déterminer comment utiliser le contexte montrent le besoin de savoir le récupérer. En analysant les besoins en apprentissage automatique pour l'ensemble des tâches relatives à la détection de contexte, nous nous sommes heurtés à un certain nombre de verrous scientifiques. Par conséquent, la plus grande partie des travaux effectués au cours de cette thèse concernent l'apprentissage d'un point de vue plus général avec comme objectif d'aboutir à un apprentissage autonome et endurant. Par autonome, nous entendons un apprentissage qui ne nécessite pas l'intervention d'un spécialiste pour fonctionner. Cela implique de faire appel à des méthodes aptes à de régler seules et en ligne. Par endurant, nous faisons référence à un usage réaliste des applications, c'est-à-dire un fonctionnement en temps réel, donc rapide et en ligne, pour un nombre très important de données et stable. Parce que les SVM donnent des résultats précis, nous avons focalisé l'ensemble de nos travaux sur cette méthode, or les SVM sont loin de répondre aux exigences d'un apprentissage autonome et endurant. L'apprentissage autonome n'est pas seulement soumis au besoin d'efficacité de la technique de résolution. Il est également limité par la présence d'hyper-paramètres. Dans le cas des SVM, ces hyper-paramètres sont relativement peu nombreux mais un seul suffit à rendre une méthode dépendante d'une forme de supervision qui contredit soit le besoin d'apprentissage en ligne, soit l'objectif d'indépendance vis-à-vis d'une intervention humaine. Nous avons étudié ce problème par le biais des chemins de régularisation. Le chemin de régularisation permet de connaître toutes les solutions d'un problème au regard d'un compromis biais-variance. Pour les SVM, ce compromis est réglé par un des hyper-paramètres et nous utilisons donc le chemin de régularisation pour obtenir un réglage automatique de cet hyper-paramètre. Nous n'avons pas encore atteint le stade du push-button SVM mais nous montrons que toutes les limites des SVM ne sont pas insurmontables. En ce qui concerne la taille des bases d'apprentissage possibles à traiter en particulier, nous avons mis en oeuvre le plus grand SVM à ce jour sur un seul processeur avec 80 millions de points en dimension 784, en utilisant la méthode en ligne LASVM.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Loustau, Sébastien. "Performances statistiques de méthodes à noyaux". Phd thesis, Université de Provence - Aix-Marseille I, 2008. http://tel.archives-ouvertes.fr/tel-00343377.

Texto completo
Resumen
Cette thèse se concentre sur le modèle de classification binaire. Etant donné $n$ couples de variables aléatoires indépendantes et identiquement distribuées (i.i.d.) $(X_i,Y_i)$, $i=1,\ldots ,n$ de loi $P$, on cherche à prédire la classe $Y\in\{-1,+1\}$ d'une nouvelle entrée $X$ où $(X,Y)$ est de loi $P$. La règle de Bayes, notée $f^*$, minimise l'erreur de généralisation $R(f)=P(f(X)\not=Y)$. Un algorithme de classification doit s'approcher de la règle de Bayes. Cette thèse suit deux axes : établir des vitesses de convergence vers la règle de Bayes et proposer des procédures adaptatives.

Les méthodes de régularisation ont montrées leurs intérêts pour résoudre des problèmes de classification. L'algorithme des Machines à Vecteurs de Support (SVM) est aujourd'hui le représentant le plus populaire. Dans un premier temps, cette thèse étudie les performances statistiques de cet algorithme, et considère le problème d'adaptation à la marge et à la complexité. On étend ces résultats à une nouvelle procédure de minimisation de risque empirique pénalisée sur les espaces de Besov. Enfin la dernière partie se concentre sur une nouvelle procédure de sélection de modèles : la minimisation de l'enveloppe du risque (RHM). Introduite par L.Cavalier et Y.Golubev dans le cadre des problèmes inverses, on cherche à l'appliquer au contexte de la classification.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Belley, Philippe. "Noyaux discontinus et méthodes sans maillage en hydrodynamique". Mémoire, Université de Sherbrooke, 2007. http://savoirs.usherbrooke.ca/handle/11143/4815.

Texto completo
Resumen
Nous développons de nouvelles méthodes pour estimer la valeur d'une fonction, ainsi que les valeurs de ses dérivées première et seconde en un point quelconque. Ces méthodes reposent sur la convolution de la fonction avec de nouveaux noyaux discontinus à support fini, introduits dans ce mémoire. Notre approche, qui s'inspire des techniques sans maillage de l'hydrodynamique des particules lisses (ou" smoothed particle hydrodynamics", SPH), a l'avantage de permettre l'emploi d'approximations polynomiales et de certaines formules Newton-Cotes (comme les règles du trapèze et de Simpson) dans l'évaluation des convolutions. De plus, nous obtenons des bornes d'erreurs associées aux techniques SPH. Dans nos calculs numériques nous avons obtenu, grâce à la convolution avec nos noyaux discontinus, des résultats supérieurs à ceux obtenus par la convolution avec un noyau continu souvent utilisé en SPH classique (plus précisément, le noyau connu sous le nom de poly6 ). Cette supériorité est particulièrement évidente lorsque le support du noyau est petit.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Bietti, Alberto. "Méthodes à noyaux pour les réseaux convolutionnels profonds". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM051.

Texto completo
Resumen
La disponibilité de quantités massives de données, comme des images dans les réseaux sociaux, des signaux audio de téléphones mobiles, ou des données génomiques ou médicales, a accéléré le développement des techniques d'apprentissage automatique. Ces méthodes exploitent des motifs statistiques dans ces grandes bases de données pour effectuer de bonnes prédictions sur des nouvelles images, signaux, ou séquences de protéines. Récemment, les systèmes d'apprentissage profond ont émergé comme des algorithmes d'apprentissage très efficaces. Ces modèles multi-couche effectuent leurs prédictions de façon hiérarchique, et peuvent être entraînés à très grande échelle avec des méthodes de gradient. Leur succès a été particulièrement marqué lorsque les données sont des signaux naturels comme des images ou des signaux audio, pour des tâches comme la reconnaissance visuelle, la détection d'objets, ou la reconnaissance de la parole. Pour de telles tâches, l'apprentissage profond donne souvent la meilleure performance empirique, mais leur compréhension théorique reste difficile à cause du grand nombre de paramètres, et de la grande dimension des données. Leur succès est souvent attribué à leur capacité d'exploiter des structures des signaux naturels, par exemple en apprenant des représentations invariantes et multi-échelle de signaux naturels à travers un bon choix d'architecture, par exemple avec des convolutions et des opérations de pooling. Néanmoins, ces propriétés sont encore mal comprises théoriquement, et l'écart entre la théorique et pratique en apprentissage continue à augmenter. Cette thèse vise à réduire cet écart grâce à l'étude d'espaces de fonctions qui surviennent à partir d'une certaine architecture, en particulier pour les architectures convolutives. Notre approche se base sur les méthodes à noyaux, et considère des espaces de Hilbert à noyaux reproduisant (RKHS) associés à certains noyaux construits de façon hiérarchique selon une architecture donnée. Cela nous permet d'étudier précisément des propriétés de régularité, d'invariance, de stabilité aux déformations du signal, et d'approximation des fonctions du RKHS. Ces propriétés sur la représentation sont aussi liées à des questions d'optimisation pour l'entraînement de réseaux profonds à très grand nombre de neurones par descente de gradient, qui donnent lieu à de tels noyaux. Cette théorie suggère également des nouvelles stratégies pratiques de régularisation qui permettent d'obtenir une meilleure performance en généralisation pour des petits jeux de données, et une performance état de l'art pour la robustesse à des perturbations adversariales en vision
The increased availability of large amounts of data, from images in social networks, speech waveforms from mobile devices, and large text corpuses, to genomic and medical data, has led to a surge of machine learning techniques. Such methods exploit statistical patterns in these large datasets for making accurate predictions on new data. In recent years, deep learning systems have emerged as a remarkably successful class of machine learning algorithms, which rely on gradient-based methods for training multi-layer models that process data in a hierarchical manner. These methods have been particularly successful in tasks where the data consists of natural signals such as images or audio; this includes visual recognition, object detection or segmentation, and speech recognition.For such tasks, deep learning methods often yield the best known empirical performance; yet, the high dimensionality of the data and large number of parameters of these models make them challenging to understand theoretically. Their success is often attributed in part to their ability to exploit useful structure in natural signals, such as local stationarity or invariance, for instance through choices of network architectures with convolution and pooling operations. However, such properties are still poorly understood from a theoretical standpoint, leading to a growing gap between the theory and practice of machine learning. This thesis is aimed towards bridging this gap, by studying spaces of functions which arise from given network architectures, with a focus on the convolutional case. Our study relies on kernel methods, by considering reproducing kernel Hilbert spaces (RKHSs) associated to certain kernels that are constructed hierarchically based on a given architecture. This allows us to precisely study smoothness, invariance, stability to deformations, and approximation properties of functions in the RKHS. These representation properties are also linked with optimization questions when training deep networks with gradient methods in some over-parameterized regimes where such kernels arise. They also suggest new practical regularization strategies for obtaining better generalization performance on small datasets, and state-of-the-art performance for adversarial robustness on image tasks
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Suard, Frédéric. "Méthodes à noyaux pour la détection de piétons". Phd thesis, INSA de Rouen, 2006. http://tel.archives-ouvertes.fr/tel-00375617.

Texto completo
Resumen
La détection de piéton est un problème récurrent depuis de nombreuses années. La principale confrontation est liée à la grande variabilité du piéton en échelle, posture et apparence. Un algorithme efficace de reconnaissance de formes doit donc être capable d'affronter ces difficultés. En particulier, le choix d'une représentation pertinente et discriminante est un sujet difficile à résoudre. Dans notrre cas, nous avons envisagé deux approches. La première consiste à représenter la forme d'un objet à l'aide de graphes étiquetés. Selon les étiquettes apportées, le graphe possède en effet des propriétés intéressantes pour résoudre les problèmes de variabilité de taille et de posture. Cette méthode nécessite cependant une segmentation rigoureuse au préalable. Nous avons ensuite étudié une représentation constituée d'histogrammes locaux d'orientation de gradient. Cette méthode présente des résultats intéressants par ses capacités de généralisation. L'application de cette méthode sur des images infrarouges complètes nécessite cependant une fonction permettant d'extraire des fenêtres dans l'image afin d'analyser leur contenu et vérifier ainsi la présence ou non de piétons. La deuxième étape du processus de reconnaissance de formes concerne l'analyse de la représentation des données. Nous utilisons pour cela le classifieur Support Vector Machine bâti, entre autres, sur une fonction noyau calculant le produit scalaire entre les données support et la donnée évaluée. Dans le cas des graphes, nous utilisons une formulation de noyau de graphes calculé sur des "sacs de chemins". Le but consiste à extraire un ensemble de chemins de chaque graphe puis de comparer les chemins entre eux et combiner les comparaisons pour obtenir le noyau final. Pour analyser les histogrammes de gradient, nous avons étudié différentes formulations permettant d'obtenir les meilleures performances avec cette représentation qui peut être assimilée à une distribution de probabilités.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Suard, Frédéric. "Méthodes à noyaux pour la détection de piétons". Phd thesis, Rouen, INSA, 2006. http://www.theses.fr/2006ISAM0024.

Texto completo
Resumen
La détection de piéton est un problème récurrent depuis de nombreuses années. La principale confrontation est liée à la grande variabilité du piéton en échelle, posture et apparence. Un algorithme efficace de reconnaissance de formes doit donc être capable d'affronter ces difficultés. En particulier, le choix d'une représentation pertinente et discriminante est un sujet difficile à résoudre. Dans notrre cas, nous avons envisagé deux approches. La première consiste à représenter la forme d'un objet à l'aide de graphes étiquetés. Selon les étiquettes apportées, le graphe possède en effet des propriétés intéressantes pour résoudre les problèmes de variabilité de taille et de posture. Cette méthode nécessite cependant une segmentation rigoureuse au préalable. Nous avons ensuite étudié une représentation constituée d'histogrammes locaux d'orientation de gradient. Cette méthode présente des résultats intéressants par ses capacités de généralisation. L'application de cette méthode sur des images infrarouges complètes nécessite cependant une fonction permettant d'extraire des fenêtres dans l'image afin d'analyser leur contenu et vérifier ainsi la présence ou non de piétons. La deuxième étape du processus de reconnaissance de formes concerne l'analyse de la représentation des données. Nous utilisons pour cela le classifieur Support Vector Machine bâti, entre autres, sur une fonction noyau calculant le produit scalaire entre les données support et la donnée évaluée. Dans le cas des graphes, nous utilisons une formulation de noyau de graphes calculé sur des "sacs de chemins". Le but consiste à extraire un ensemble de chemins de chaque graphe puis de comparer les chemins entre eux et combiner les comparaisons pour obtenir le noyau final. Pour analyser les histogrammes de gradient, nous avons étudié différentes formulations permettant d'obtenir les meilleures performances avec cette représentation qui peut être assimilée à une distribution de probabilités.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Sadok, Hassane. "Accélération de la convergence de suites vectorielles et méthodes de point fixe". Lille 1, 1988. http://www.theses.fr/1988LIL10146.

Texto completo
Resumen
Étude de l'accélération de la convergence de suites de vecteurs complexes. Transformation d'Henrici et transformations composites vectorielles (étudiées par C. Brezinski dans le cas scolaire). Connexion existant entre les méthodes d'accélération de la convergence et les méthodes de point fixe. Généralisations de la méthode Regula-Falsi. Revue des principales méthodes d'accélération de la convergence. Classe de méthodes à convergence quadratique, appliquées à la résolution des systèmes d'équations non linéaires.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Pothin, Jean-Baptiste. "Décision par méthodes à noyaux en traitement du signal : techniques de sélection et d'élaboration de noyaux adaptés". Troyes, 2007. http://www.theses.fr/2007TROY0016.

Texto completo
Resumen
Dans le foisonnant domaine des méthodes à noyaux, force est de constater aujourd’hui que les efforts de recherche ont été essentiellement portés sur les applications, délaissant quelque peu l’étude des noyaux eux-mêmes. Cet état de fait est d’autant plus surprenant que ces derniers conditionnent largement l’efficacité des traitements, par leur aptitude à révéler les similarités existant au sein des données traitées. Le principal objectif de cette thèse est de proposer une méthodologie pour l’élaboration d'un noyau adapté à un problème et à des données. La première partie de ce manuscrit s’intéresse au problème d’apprentissage d’un noyau par ajustement de ses paramètres libres. Nous étudions en particulier les propriétés statistiques des critères d’alignement et de polarité, et proposons un algorithme glouton pour l’optimisation d’une combinaison linéaire de noyaux. Dans la seconde partie, nous étudions le problème d’optimisation de la représentation des données. Un algorithme est proposé pour transformer linéairement les données selon le critère d’alignement. Afin de lutter contre la malédiction de la dimensionnalité, nous étudions une seconde approche basée sur l’optimisation de la métrique et l’appliquons avec succès au problème de classification de textes. La dernière partie concerne la prise en compte d’a priori modélisé sous la forme d’ellipsoïdes, inspiré de l’apprentissage d’un SVM, nous développons un algorithme supervisé capable de classer efficacement des ellipsoïdes
Among the large family of kernel methods, one should admit that, up to now, research was guided by applications, neglecting the study of the kernels themselves. This observations of particularly surprising since these later determine the performance of the machine by their ability to reveal similarities between data samples. The main objective of this thesis is to provide a methodology for the design of data-dependant kernels. The first part of this manuscript is about kernel learning. We study the problem consisting in optimizing the free parameters of several well-known kernel families. We propose a greedy algorithm for learning a linear combination of kernels without training any kernel machine at each step. The improved kernel is then used to train a standard SVM classifier. Applications in regression are also presented. In the second part, we develop methods for data representation learning. We propose an algorithm for maximizing the alignment over linear transform of the input space, which suppose vectorial representation of the data. To deal with the so-called curse of dimensionality, we suggest to learn data representation by distance metric learning. This approach can be used to optimize efficiently any reproducing kernel Hilbert space. We show its application in a text classification context. The last part concerns the use of prior information in the form of ellipsoidal knowledge sets. By considering bounding ellipsoids instead of the usual sample vectors, one can include into SVM invariance properties
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Tawk, Melhem. "Accélération de la simulation par échantillonnage dans les architectures multiprocesseurs embarquées". Valenciennes, 2009. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/860a8e09-e347-4f85-83bd-d94ca890483d.

Texto completo
Resumen
La conception de systèmes embarqués s’appuie fortement sur la simulation pour évaluer et valider des nouvelles configurations architecturales avant la réalisation physique. Néanmoins, comme ces systèmes deviennent de plus en plus complexes, la simulation de ces systèmes exige des temps importants. Ce problème est encore plus visible au niveau des architectures embarquées multiprocesseurs (ou MPSoC) qui offrent des performances certes intéressantes (en nombre d’instructions/Joule) mais qui exigent des simulateurs performants. Pour ces systèmes, il est impératif d’accélérer la simulation afin de réduire les délais de la phase d’évaluation des performances et obtenir ainsi des temps d’arrivée sur le marché (time-to-market) relativement courts. La thèse s’intéresse aux méthodes d’accélération de la simulation pour ce type d’architectures. Dans ce cadre, nous avons proposé une série de solutions visant à accélérer la simulation des MPSoC. L’ensemble des méthodes proposées sont basées sur l’échantillonnage des applications. Ainsi, les applications parallèles sont d’abords analysées afin de détecter les différentes phases qui les composent. Par la suite et pendant la simulation, les phases s’exécutant en parallèle se combinent et forment des clusters de phases. Nous avons mis au point des techniques qui permettent de former les clusters, de les détecter et de sauvegarder leurs statistiques de façon intéressante. Chaque cluster représente un échantillon d’intervalles d’exécution de l’application similaires. La détection de ces derniers nous évite de simuler plusieurs fois le même échantillon. Pour réduire le nombre de clusters dans les applications et augmenter le nombre d’occurrences des clusters simulés, une optimisation de la méthode a été proposée afin d’adapter dynamiquement la taille des phases des applications à simuler. Ceci permet de détecter facilement les scenarios des clusters exécutés lorsqu’une répétition dans le comportement des applications a lieu. Enfin, pour rendre notre méthodologie viable dans un environnement de conception de MPSoC, nous avons proposé des techniques performantes pour la construction de l’état exact du système au démarrage (checkpoint) de la simulation des clusters
Embedded system design relies heavily on simulation to evaluate and validate new platforms before implementation. Nevertheless, as technological advances allow the realization of more complex circuits, simulation time of these systems is considerably increasing. This problem arises mostly in the case of embedded multiprocessor architectures (MPSoC) which offer high performances (in terms of instructions/Joule) but which require powerful simulators. For such systems, simultion should be accelerated in order to speed up their design flow thus reducing the time-to-market. In this thesis, we proposed a series of solutions aiming at accelerating the simulation of MPSoC. The proposed methods are based on application sampling. Thus, the parallel applications are first analyzed in order to detect the different phases which compose them. Thereafter and during the simulation, the phases executed in parallel are combined together in order to generate clusters of phases. We developed techniques that facilitate generating clusters, detecting repeated ones and recording their statistics in an efficient way. Each cluster represents a sample of similar execution intervals of the application. The detection of these similar intervals saves us simulating several times the same sample. To reduce the number of clusters in the applications and to increase the occurrence number of simulated clusters, an optimization of the method was proposed to dynamically adapt phase size of the applications. This makes it possible to easily detect the scenarios of the executed clusters when a repetition in the behavior of the applications takes place. Finally, to make our methodology viable in an MPSoC design environment, we proposed efficient techniques to construct the real system state at the simulation starting point (checkpoint) of the cluster
Los estilos APA, Harvard, Vancouver, ISO, etc.

Capítulos de libros sobre el tema "Accélération méthodes à noyaux"

1

MARIETTE, Jérôme y Nathalie VIALANEIX. "Des noyaux pour les omiques". En Intégration de données biologiques, 165–210. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9030.ch6.

Texto completo
Resumen
En biologie des systèmes, de nombreuses méthodes ont été développées pour intégrer les données -omiques et, parmi elles, les noyaux sont une approche couramment utilisée. Dans ce chapitre, nous présentons le cadre général des approches à noyau et leur utilité pour l'analyse de divers types de données biologiques avec un focus particulier sur les approches exploratoires.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía