Littérature scientifique sur le sujet « Processus faiblement dépendant »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Processus faiblement dépendant ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Processus faiblement dépendant"

1

Soulier, Philippe. « Estimation adaptative de la densité spectrale d'un processus gaussien faiblement ou fortement dépendant ». Comptes Rendus de l'Académie des Sciences - Series I - Mathematics 330, no 8 (avril 2000) : 733–36. http://dx.doi.org/10.1016/s0764-4442(00)00252-4.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Marot, Didier, Bikram Oli, Rachel Gelet et Fateh Bendahmane. « Nouveau dispositif pour l’étude de la suffusion suivant différents états mécaniques ». Revue Française de Géotechnique, no 178 (2024) : 3. http://dx.doi.org/10.1051/geotech/2024006.

Texte intégral
Résumé :
Les instabilités et les ruptures que peuvent subir les digues et les barrages en remblais sont très majoritairement dues aux processus d’érosion externe (surverse) et d’érosion interne (renard hydraulique, érosion régressive, érosion de contact ou suffusion). Cette étude porte sur la suffusion qui peut mobiliser la fraction fine de sols pulvérulents ou faiblement cohésifs. Ce processus complexe combine trois mécanismes : le détachement, le transport et l’éventuelle filtration des particules fines. De nombreux critères ont été proposés dans littérature, pour caractériser la susceptibilité à la suffusion, en considérant uniquement la distribution granulométrique et éventuellement la densité du sol. Toutefois, plusieurs études ont montré que l’initiation et le développement de la suffusion dépendent aussi du chemin de chargement hydraulique. Par ailleurs, chacun des trois mécanismes susmentionnés dépend du chargement mécanique subi par le sol. Dans ce contexte, un dispositif expérimental a été développé afin de caractériser la sensibilité vis-à-vis de la suffusion, de quatre sols pulvérulents à distribution lacunaire (composé de sable et de gravier), en contrôlant l’état mécanique et le chemin de chargement hydraulique. Les essais sont réalisés à l’aide du banc triaxial dédié qui permet d’appliquer à l’échantillon (diamètre : 100 mm ; hauteur : 200 mm) un écoulement vertical descendant. La charge hydraulique appliquée est augmentée automatiquement, par faibles incréments et suivant le même chemin pour tous les essais. Les échantillons sont tous consolidés sous une même contrainte effective moyenne, mais la valeur du déviateur de contrainte est propre à chaque essai. Enfin des essais sont menés en conditions œdométriques. L’interprétation des évolutions de conductivité hydraulique et de taux d’érosion permet tout d’abord d’identifier 4 étapes successives : initiation, filtration, débourrage et état permanent caractérisant la fin du processus de suffusion. Chacune de ces étapes est ensuite étudiée à l’aide de différentes méthodes interprétatives. À la fin de chaque essai, les échantillons sont découpés en 4 couches afin de mesurer les évolutions de distribution granulométrique. Les résultats obtenus soulignent la présence d’écoulements préférentiels circonférentiels pour l’essai réalisé en conditions œdométriques, ce qui conduit à une légère surestimation de la sensibilité à la suffusion. En conditions triaxiales, l’influence sur la suffusion du déviateur de contrainte apparaît limitée, notamment en regard de l’influence du pourcentage de sable. Enfin la confrontation de ces résultats montre que contrairement à l’approche énergétique, l’approche en conductivité hydraulique ne permet pas de détecter toutes les étapes pour tous les essais.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Dejemeppe, Muriel, et Bruno Van der Linden. « Numéro 40 - avril 2006 ». Regards économiques, 12 octobre 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15873.

Texte intégral
Résumé :
Ce numéro de Regards économiques se concentre sur divers aspects du "plan Marshall" (ci-dessous "le plan") qui ont un lien direct avec le marché du travail en Wallonie. Il les situe par rapport à son fonctionnement, par rapport à certaines politiques fédérales et à la problématique salariale en Belgique et dans ses régions. Face aux difficultés à pourvoir certains types d'emplois vacants en Wallonie et au manque simultané d'opportunités d'emploi, quels sont les remèdes ? Où le plan peut-il agir ? “Le problème de la Wallonie, c'est le manque d'offres d'emploi”, entend-on dire souvent. D'un autre côté, depuis quelques années, est apparue la problématique des postes vacants difficiles à pourvoir (ou des "fonctions critiques"). Bien que la coexistence de ces deux problèmes n'ait rien de surprenant, on a de bonnes raisons de se soucier simultanément de chacun d'eux. Divers mécanismes sont à prendre en compte. Le “plan” agit sur certains d'entre eux mais doit être complété par des outils fédéraux. Le plan devrait par divers canaux stimuler à terme le nombre de postes vacants créés (renforcement de l'innovation, stimulation de la création d'activités et création de “pôles de compétitivité”). Il est trop tôt cependant pour en juger. L'essentiel dépendra de la capacité de nos institutions publiques et privées à mettre ces actions en œuvre avec efficacité. Dans ses domaines de compétence, le "plan" prévoit des mesures qui devraient favoriser la conciliation entre vie familiale et professionnelle (renforcement des capacités d'accueil de jeunes enfants et d'aide «aux personnes dépendantes» par le recrutement de près de 2000 emplois subventionnés dans le secteur non marchand). Ceci devrait faciliter l'acceptation d'une offre d'emploi. Le FOREM et des organismes privés cherchent à faciliter la rencontre entre demandeurs d'emplois et postes vacants. Le plan prévoit un renforcement des moyens du FOREM à cet égard mais uniquement en faveur des stagiaires en formation au sein du FOREM lui-même. Cette restriction est difficile à justifier. Comme les difficultés de recrutement tiennent aussi à un déficit de compétence, le "plan" prévoit un renforcement de l'effort de formation, en particulier pour les fonctions identifiées comme critiques et dans les secteurs liés aux pôles de compétitivité. Cette sélectivité apparaît cohérente. Divers instruments renforcés par le "plan" (le Plan Formation-Insertion, l'apprentissage des langues, l'enseignement en alternance) ne sont pas nouveaux. Ils ont fait parfois l'objet d'évaluations critiques. On attend des décideurs qu'ils prennent la pleine mesure des conclusions essentielles de celles-ci parallèlement à l'octroi de moyens supplémentaires. Le "plan" intègre la création d'un instrument nouveau par la Communauté française: les Centres de Technologies Avancées. Il s'agit de labelliser et de renforcer les moyens d'établissements scolaires spécialisés dans des secteurs porteurs d'emploi. Ces centres s'ajoutent à une autre structure, créée assez récemment par la Région wallonne et dénommée les Centres de compétence. Etant donné la rapidité des évolutions technologiques, l'enjeu est de taille. La sélection des projets et la coordination entre la Région et la Communauté seront ici aussi déterminants. La difficulté à pourvoir des emplois vacants est aussi liée à des facteurs non monétaires nuisibles à la qualité de l'emploi (horaires difficiles, risques d'accident de travail, etc.), au statut social associé ou non à l'emploi et aux images que l'on a de la fonction offerte (voir la récente étude du DULBEA sur ce sujet). Dans le cadre du "plan", le FOREM a récemment mis en place un “plan d'action”qui vise notamment à agir sur certains de ces aspects. Sans oublier les actions régionales dans le domaine du transport public et du logement, qui ne relèvent pas du "plan", pour promouvoir davantage une meilleure rencontre entre les emplois vacants et les demandeurs d'emploi, la Région wallonne doit en particulier s'appuyer sur les instruments suivants, qui sont essentiellement du ressort de l'Etat fédéral : On sait que les gains monétaires immédiats en cas de reprise d'emploi se sont accrus dans bien des cas entre 1999 et 2003. Ces gains paraissent toutefois demeurer fort faibles en cas de reprise d'un emploi à bas salaire et à temps partiel. Le gouvernement fédéral s'est engagé à adapter périodiquement les prestations de remplacement de revenus des salariés. Face à cela, pour éviter le développement de désincitants à la reprise d'emploi, toute modification de la (para)fiscalité devrait avoir un double souci : (a) elle devrait atteindre les catégories au bas de l'échelle des revenus du travail d'une manière immédiatement tangible pour celles-ci (via en particulier les cotisations personnelles ou le précompte professionnel); (b) cependant, on ne peut alléger la (para)fiscalité au bas de l'échelle des revenus sans un ajustement dans le même sens pour les revenus plus élevés sous peine de créer des incitations perverses qui réduiraient la base taxable. Il est possible que le plan d'activation du comportement de recherche d'emploi entraîne une augmentation de l'effort de recherche. Les évaluations sont en cours. Pour autant qu'elles stimulent effectivement l'effort de recherche d'emploi, les politiques actives rendant celui-ci plus efficace (conseillers en recherche d'emploi, ateliers de recherche active, stage de mise en situation professionnelle) peuvent stimuler une embauche durable, ainsi que l'a montré une évaluation en France. Le plan d'accompagnement des chômeurs pourrait affecter le comportement de recherche d'emploi par ce canal et pas uniquement par le contrôle qu'il exerce. Coûts salariaux et productivité : Faut-il régionaliser la formation des salaires, alléger le coût du travail ? Le “plan” n'aborde qu'incidemment la problématique du coût du travail. A-t-il tort ? En soi, non, car la matière est fédérale. Cette problématique et celle de la productivité sont néanmoins en toile de fond du "plan" et de bien des débats. Nous avons donc estimé utile de consacrer un part de ce numéro à ces aspects. Sur base des récentes statistiques de l'ICN, comparés à la Wallonie, le coût salarial par personne est dans la plupart des secteurs supérieur en Flandre (en moyenne, l'écart est de 8 % en 2003) mais la productivité du travail est dans la plupart des secteurs supérieure en Flandre (en moyenne, l'écart est de 14 % en 2004). En combinant ces informations pour 2003, on conclut que le coût salarial par unité de valeur ajoutée est en moyenne inférieur de 4,5 % en Flandre. Ces moyennes cachent néanmoins une hétérogénéité sectorielle importante. De ce constat, on peut être tenté de conclure qu'il faudrait abandonner la formation des salaires au niveau (interprofessionnel et sectoriel) fédéral au profit d'une négociation à un niveau régional ou local. Ceci devrait conduire à une meilleure prise en compte des conditions locales du marché du travail lors de la négociation salariale. Nous émettons des doutes sur l'efficacité d'une telle approche. Il est bien établi que les salaires réagissent faiblement au niveau du chômage en Belgique. Rien ne permet de penser qu'une forme de régionalisation modifierait l'ampleur de cette saine réaction. Plus fondamentalement, les résultats d'une négociation se jugent par comparaison aux résultats obtenus par d'autres négociations salariales. Si donc on découpe les commissions paritaires nationales en commissions (sous-)régionales, on doit s'attendre à un effet de comparaison très puissant entre les ex-membres de la même commission nationale. Une régionalisation des négociations est alors moins efficace du point de vue de l'emploi qu'une négociation nationale qui prend en compte les spécificités régionales. Ceci est vrai tant pour la Flandre que pour les autres régions. Sans être le seul facteur pertinent (voir notamment le numéro 41 de Regards économiques relatif à la fiscalité), le coût du travail est un facteur central pour les régions belges. Outre le ciblage inadéquat des allégements structurels (fédéraux) de cotisations patronales de sécurité sociale, nous rappelons que des subventions temporaires à l'embauche présentent une efficacité du point de vue de l'insertion en emploi pour autant que le ciblage soit adéquat et la durée de subvention courte (un an devrait être un ordre de grandeur). La région wallonne a de longue date privilégié une autre option : les créations directes et/ou la subvention forte et durable d'emplois réservés aux chômeurs. Le "plan" prolonge cette option par le subventionnement de 2000 emplois supplémentaires (voir point b ci-dessus). Les secteurs bénéficiaires – dans une large mesure les secteurs publics et non-marchand – reçoivent ainsi un soutien parfois essentiel. Il nous apparaît que cette dernière motivation domine en pratique. Nous ne voyons donc pas les raisons de réserver ces emplois à des personnes disposant de statuts spécifiques – souvent complexes à définir. Que faut-il faire et, surtout, ne pas faire en matière d’évaluation des politiques d’emploi ? L'enjeu de l'évaluation est proclamé de plus en plus souvent, en particulier par le "plan". Mais est-on bien conscient de ce que "évaluer" veut dire ? Nous sommes convaincus du contraire. Le «nombre de contrats signés», le «nombre de bénéficiaires», le «parcours des bénéficiaires sur le marché du travail» et même une comparaison grossière entre ces parcours et ceux d'un vague groupe de contrôle sont autant d’indicateurs descriptifs intéressants. Ils ne permettent cependant pas de se prononcer sur l’effet du dispositif sur les chances d’insertion des demandeurs d’emploi. Des méthodes plus sophistiquées et plus fiables existent mais elles ne s'improvisent pas. Elles requièrent du temps et un savoir-faire pointu. Nous préconisons donc ceci : Il y a lieu de penser l’évaluation d’un programme avant même son lancement. Il faudrait interdire le lancement d'une nouvelle politique avant que le processus d'évaluation n'ait été défini et reconnu pertinent par une instance indépendante. L'Institut Wallon de l'Evaluation, de la Prospective et de la Statistique (IWEPS) doit être doté de moyens substantiellement plus importants pour qu'il puisse notamment mener à bien ses missions d'évaluation.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Dejemeppe, Muriel, et Bruno Van der Linden. « Numéro 40 - avril 2006 ». Regards économiques, 12 octobre 2018. http://dx.doi.org/10.14428/regardseco2006.04.01.

Texte intégral
Résumé :
Ce numéro de Regards économiques se concentre sur divers aspects du "plan Marshall" (ci-dessous "le plan") qui ont un lien direct avec le marché du travail en Wallonie. Il les situe par rapport à son fonctionnement, par rapport à certaines politiques fédérales et à la problématique salariale en Belgique et dans ses régions. Face aux difficultés à pourvoir certains types d'emplois vacants en Wallonie et au manque simultané d'opportunités d'emploi, quels sont les remèdes ? Où le plan peut-il agir ? “Le problème de la Wallonie, c'est le manque d'offres d'emploi”, entend-on dire souvent. D'un autre côté, depuis quelques années, est apparue la problématique des postes vacants difficiles à pourvoir (ou des "fonctions critiques"). Bien que la coexistence de ces deux problèmes n'ait rien de surprenant, on a de bonnes raisons de se soucier simultanément de chacun d'eux. Divers mécanismes sont à prendre en compte. Le “plan” agit sur certains d'entre eux mais doit être complété par des outils fédéraux. Le plan devrait par divers canaux stimuler à terme le nombre de postes vacants créés (renforcement de l'innovation, stimulation de la création d'activités et création de “pôles de compétitivité”). Il est trop tôt cependant pour en juger. L'essentiel dépendra de la capacité de nos institutions publiques et privées à mettre ces actions en œuvre avec efficacité. Dans ses domaines de compétence, le "plan" prévoit des mesures qui devraient favoriser la conciliation entre vie familiale et professionnelle (renforcement des capacités d'accueil de jeunes enfants et d'aide «aux personnes dépendantes» par le recrutement de près de 2000 emplois subventionnés dans le secteur non marchand). Ceci devrait faciliter l'acceptation d'une offre d'emploi. Le FOREM et des organismes privés cherchent à faciliter la rencontre entre demandeurs d'emplois et postes vacants. Le plan prévoit un renforcement des moyens du FOREM à cet égard mais uniquement en faveur des stagiaires en formation au sein du FOREM lui-même. Cette restriction est difficile à justifier. Comme les difficultés de recrutement tiennent aussi à un déficit de compétence, le "plan" prévoit un renforcement de l'effort de formation, en particulier pour les fonctions identifiées comme critiques et dans les secteurs liés aux pôles de compétitivité. Cette sélectivité apparaît cohérente. Divers instruments renforcés par le "plan" (le Plan Formation-Insertion, l'apprentissage des langues, l'enseignement en alternance) ne sont pas nouveaux. Ils ont fait parfois l'objet d'évaluations critiques. On attend des décideurs qu'ils prennent la pleine mesure des conclusions essentielles de celles-ci parallèlement à l'octroi de moyens supplémentaires. Le "plan" intègre la création d'un instrument nouveau par la Communauté française: les Centres de Technologies Avancées. Il s'agit de labelliser et de renforcer les moyens d'établissements scolaires spécialisés dans des secteurs porteurs d'emploi. Ces centres s'ajoutent à une autre structure, créée assez récemment par la Région wallonne et dénommée les Centres de compétence. Etant donné la rapidité des évolutions technologiques, l'enjeu est de taille. La sélection des projets et la coordination entre la Région et la Communauté seront ici aussi déterminants. La difficulté à pourvoir des emplois vacants est aussi liée à des facteurs non monétaires nuisibles à la qualité de l'emploi (horaires difficiles, risques d'accident de travail, etc.), au statut social associé ou non à l'emploi et aux images que l'on a de la fonction offerte (voir la récente étude du DULBEA sur ce sujet). Dans le cadre du "plan", le FOREM a récemment mis en place un “plan d'action”qui vise notamment à agir sur certains de ces aspects. Sans oublier les actions régionales dans le domaine du transport public et du logement, qui ne relèvent pas du "plan", pour promouvoir davantage une meilleure rencontre entre les emplois vacants et les demandeurs d'emploi, la Région wallonne doit en particulier s'appuyer sur les instruments suivants, qui sont essentiellement du ressort de l'Etat fédéral : On sait que les gains monétaires immédiats en cas de reprise d'emploi se sont accrus dans bien des cas entre 1999 et 2003. Ces gains paraissent toutefois demeurer fort faibles en cas de reprise d'un emploi à bas salaire et à temps partiel. Le gouvernement fédéral s'est engagé à adapter périodiquement les prestations de remplacement de revenus des salariés. Face à cela, pour éviter le développement de désincitants à la reprise d'emploi, toute modification de la (para)fiscalité devrait avoir un double souci : (a) elle devrait atteindre les catégories au bas de l'échelle des revenus du travail d'une manière immédiatement tangible pour celles-ci (via en particulier les cotisations personnelles ou le précompte professionnel); (b) cependant, on ne peut alléger la (para)fiscalité au bas de l'échelle des revenus sans un ajustement dans le même sens pour les revenus plus élevés sous peine de créer des incitations perverses qui réduiraient la base taxable. Il est possible que le plan d'activation du comportement de recherche d'emploi entraîne une augmentation de l'effort de recherche. Les évaluations sont en cours. Pour autant qu'elles stimulent effectivement l'effort de recherche d'emploi, les politiques actives rendant celui-ci plus efficace (conseillers en recherche d'emploi, ateliers de recherche active, stage de mise en situation professionnelle) peuvent stimuler une embauche durable, ainsi que l'a montré une évaluation en France. Le plan d'accompagnement des chômeurs pourrait affecter le comportement de recherche d'emploi par ce canal et pas uniquement par le contrôle qu'il exerce. Coûts salariaux et productivité : Faut-il régionaliser la formation des salaires, alléger le coût du travail ? Le “plan” n'aborde qu'incidemment la problématique du coût du travail. A-t-il tort ? En soi, non, car la matière est fédérale. Cette problématique et celle de la productivité sont néanmoins en toile de fond du "plan" et de bien des débats. Nous avons donc estimé utile de consacrer un part de ce numéro à ces aspects. Sur base des récentes statistiques de l'ICN, comparés à la Wallonie, le coût salarial par personne est dans la plupart des secteurs supérieur en Flandre (en moyenne, l'écart est de 8 % en 2003) mais la productivité du travail est dans la plupart des secteurs supérieure en Flandre (en moyenne, l'écart est de 14 % en 2004). En combinant ces informations pour 2003, on conclut que le coût salarial par unité de valeur ajoutée est en moyenne inférieur de 4,5 % en Flandre. Ces moyennes cachent néanmoins une hétérogénéité sectorielle importante. De ce constat, on peut être tenté de conclure qu'il faudrait abandonner la formation des salaires au niveau (interprofessionnel et sectoriel) fédéral au profit d'une négociation à un niveau régional ou local. Ceci devrait conduire à une meilleure prise en compte des conditions locales du marché du travail lors de la négociation salariale. Nous émettons des doutes sur l'efficacité d'une telle approche. Il est bien établi que les salaires réagissent faiblement au niveau du chômage en Belgique. Rien ne permet de penser qu'une forme de régionalisation modifierait l'ampleur de cette saine réaction. Plus fondamentalement, les résultats d'une négociation se jugent par comparaison aux résultats obtenus par d'autres négociations salariales. Si donc on découpe les commissions paritaires nationales en commissions (sous-)régionales, on doit s'attendre à un effet de comparaison très puissant entre les ex-membres de la même commission nationale. Une régionalisation des négociations est alors moins efficace du point de vue de l'emploi qu'une négociation nationale qui prend en compte les spécificités régionales. Ceci est vrai tant pour la Flandre que pour les autres régions. Sans être le seul facteur pertinent (voir notamment le numéro 41 de Regards économiques relatif à la fiscalité), le coût du travail est un facteur central pour les régions belges. Outre le ciblage inadéquat des allégements structurels (fédéraux) de cotisations patronales de sécurité sociale, nous rappelons que des subventions temporaires à l'embauche présentent une efficacité du point de vue de l'insertion en emploi pour autant que le ciblage soit adéquat et la durée de subvention courte (un an devrait être un ordre de grandeur). La région wallonne a de longue date privilégié une autre option : les créations directes et/ou la subvention forte et durable d'emplois réservés aux chômeurs. Le "plan" prolonge cette option par le subventionnement de 2000 emplois supplémentaires (voir point b ci-dessus). Les secteurs bénéficiaires – dans une large mesure les secteurs publics et non-marchand – reçoivent ainsi un soutien parfois essentiel. Il nous apparaît que cette dernière motivation domine en pratique. Nous ne voyons donc pas les raisons de réserver ces emplois à des personnes disposant de statuts spécifiques – souvent complexes à définir. Que faut-il faire et, surtout, ne pas faire en matière d’évaluation des politiques d’emploi ? L'enjeu de l'évaluation est proclamé de plus en plus souvent, en particulier par le "plan". Mais est-on bien conscient de ce que "évaluer" veut dire ? Nous sommes convaincus du contraire. Le «nombre de contrats signés», le «nombre de bénéficiaires», le «parcours des bénéficiaires sur le marché du travail» et même une comparaison grossière entre ces parcours et ceux d'un vague groupe de contrôle sont autant d’indicateurs descriptifs intéressants. Ils ne permettent cependant pas de se prononcer sur l’effet du dispositif sur les chances d’insertion des demandeurs d’emploi. Des méthodes plus sophistiquées et plus fiables existent mais elles ne s'improvisent pas. Elles requièrent du temps et un savoir-faire pointu. Nous préconisons donc ceci : Il y a lieu de penser l’évaluation d’un programme avant même son lancement. Il faudrait interdire le lancement d'une nouvelle politique avant que le processus d'évaluation n'ait été défini et reconnu pertinent par une instance indépendante. L'Institut Wallon de l'Evaluation, de la Prospective et de la Statistique (IWEPS) doit être doté de moyens substantiellement plus importants pour qu'il puisse notamment mener à bien ses missions d'évaluation.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Processus faiblement dépendant"

1

Wade, Modou. « Apprentissage profond pour les processus faiblement dépendants ». Electronic Thesis or Diss., CY Cergy Paris Université, 2024. http://www.theses.fr/2024CYUN1299.

Texte intégral
Résumé :
Cette thèse porte sur l'apprentissage profond pour les processus faiblement dépendants. Nous avons considéré une classe d'estimateur de réseau de neurones profonds avec la régularisation par sparsité et/ou la régularisation par pénalité.Le chapitre1 est une synthèse des travaux. Il s'agit ici de présenter le cadre de l'apprentissage profond et de rappeler les principaux résultats obtenus aux chapitres 2, 3, 4, 5, 6.Le chapitre 2 considère l'apprentissage profond pour les processus psi-faiblement dépendants. Nous avons établi une vitesse de convergence de l'algorithme de minimisation du risque empirique (MRE) sur la classe des estimateurs de réseaux de neurones profonds (RNPs). Pour ces estimateurs, nous avons fourni une borne de généralisation et une vitesse asymptotique d'ordre O(n^{-1/alpha}) pour tout alpha > 2 est obtenue. Une borne de l'excès de risque pour une large classe de prédicteurs cibles est aussi établie.Le chapitre 3 présente l'estimateur de réseaux de neurones profonds pénalisé sous la dépendance faible. Nous avons considéré les problèmes de régression non-paramétrique et de classification pour les processus faiblement dépendants. Nous avons utilisé une méthode de régularisation par pénalisation. Pour la régression non-paramétrique et la classification binaire, nous avons établi une inégalité d'oracle pour l'excès de risque de l'estimateur de réseau de neurones pénalisé. Nous avons aussi fourni une vitesse de convergence de ces estimateurs.Le chapitre 4 porte sur l'estimateur de réseaux de neurones profonds pénalisé avec une fonction de perte générale sous la dépendance faible. Nous nous sommes placés dans le cadre de la structure de psi-dépendance faible et dans le cas spécifique où les observations sont bornées, nous avons utilisé la theta_{infty}-dépendance faible. Pour l'apprentissage des processus psi et theta_{infty}-faiblement dépendants, nous avons établi une inégalité d'oracle pour les excès de risque de l'estimateur de réseau de neurones profond pénalisé. Nous avons montré que lorsque la fonction cible est suffisamment régulière, la vitesse de convergence de ces excès de risque est d'ordre O(n^{-1/3}). Le chapitre 5 présente l'apprentissage profond robuste à partir de données faiblement dépendantes. Nous avons supposé que la variable de sortie admet des moments d'ordre r finis, avec r >= 1. Pour l'apprentissage des processus à mélange forts et psi-faiblement dépendants, une borne non asymptotique de l'espérance de l'excès de risque de l'estimateur de réseau de neurones est établie. Nous avons montré que lorsque la fonction cible appartient à la classe des fonctions de H"older régulières la vitesse de convergence de l'espérance de l'excès de risque obtenue sur l'apprentissage des données exponentiellement fort mélangeant est proche de ou égale à celle obtenue avec un échantillon indépendant et identiquement distribué (i.i.d.). Le chapitre 6 porte sur l'apprentissage profond pour les processus fortement mélangeants avec une régularisation par pénalité et minimax optimalité. Nous avons considéré aussi le problème de la régression non-paramétrique sur des données à mélange fort avec un bruit sous-exponentiel. Ainsi, lorsque la fonction cible appartient à la classe de composition de fonctions de H"older nous avons établi une borne supérieure de l'inégalité d'oracle de l'erreur L_2. Dans le cas spécifique de la régression autorégressive avec un bruit de Laplace ou normal standard, nous avons fourni une borne inférieure de l'erreur L_2 dans cette classe, qui correspond à un facteur logarithmique près à la borne supérieure ; ainsi l'estimateur de réseau de neurones profonds atteint une vitesse de convergence optimale
This thesis focuses on deep learning for weakly dependent processes. We consider a class of deep neural network estimators with sparsity regularisation and/or penalty regularisation.Chapter1 is a summary of the work. It presents the deep learning framework and reviews the main results obtained in chapters 2, 3, 4, 5 and 6.Chapter 2 considers deep learning for psi-weakly dependent processes. We have established the convergence rate of the empirical risk minimization (ERM) algorithm on the class of deep neural network (DNN) estimators. For these estimators, we have provided a generalization bound and an asymptotic learning rate of order O(n^{-1/alpha}) for all alpha > 2 is obtained. A bound of the excess risk for a large class of target predictors is also established. Chapter 3 presents the sparse-penalized deep neural networks estimator under weak dependence. We consider nonparametric regression and classification problems for weakly dependent processes. We use a method of regularization by penalization. For nonparametric regression and binary classification, we establish an oracle inequality for the excess risk of the sparse-penalized deep neural networks (SPDNN) estimator. We have also provided a convergence rate for these estimators.Chapter 4 focuses on the penalized deep neural networks estimator with a general loss function under weak dependence. We consider the psi-weak dependence structure and, in the specific case where the observations are bounded, we deal with the theta_{infty}-weak dependence. For learning psi and theta_{infty}-weakly dependent processes, we have established an oracle inequality for the excess risks of the sparse-penalized deep neural networks estimator. We have shown that when the target function is sufficiently smooth, the convergence rate of these excess risks is close to O(n^{-1/3}).Chapter 5 presents robust deep learning from weakly dependent data. We assume that the output variable has finite r moments, with r >= 1. For learning strong mixing and psi-weakly dependent processes, a non-asymptotic bound for the expected excess risk of the deep neural networks estimator is established. We have shown that when the target function belongs to the class of H"older smooth functions, the convergence rate of the expected excess risk for exponentially strongly mixing data is close to or equal to that obtained with an independent and identically distributed sample. Chapter 6 focuses on deep learning for strongly mixing observation with sparse-penalized regularization and minimax optimality. We have provided an oracle inequality and a bound on the class of H"older smooth functions for the expected excess risk of the deep neural network estimator. We have also considered the problem of nonparametric regression from strongly mixing data with sub-exponential noise. When the target function belongs to the class of H"older composition functions, we have established an upper bound for the oracle inequality of the L_2 error. In the specific case of autoregressive regression with standard Laplace or normal error, we have provided a lower bound for the L_2 error in this classe, which matches up to a logarithmic factor the upper bound; thus the deep neural network estimator achieves optimal convergence rate
Styles APA, Harvard, Vancouver, ISO, etc.
2

Boulin, Alexis. « Partitionnement des variables de séries temporelles multivariées selon la dépendance de leurs extrêmes ». Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ5039.

Texte intégral
Résumé :
Dans un grand éventail d'applications allant des sciences du climat à la finance, des événements extrêmes avec une probabilité loin d'être négligeable peuvent se produire, entraînant des conséquences désastreuses. Les extrêmes d'évènements climatiques tels que le vent, la température et les précipitations peuvent profondément affecter les êtres humains et les écosystèmes, entraînant des événements tels que des inondations, des glissements de terrain ou des vagues de chaleur. Lorsque l'emphase est mise sur l'étude de variables mesurées dans le temps sur un grand nombre de stations ayant une localisation spécifique, comme les variables mentionnées précédemment, le partitionnement de variables devient essentiel pour résumer et visualiser des tendances spatiales, ce qui est crucial dans l'étude des événements extrêmes. Cette thèse explore plusieurs modèles et méthodes pour partitionner les variables d'un processus stationnaire multivarié, en se concentrant sur les dépendances extrémales.Le chapitre 1 présente les concepts de modélisation de la dépendance via les copules, fondamentales pour la dépendance extrême. La notion de variation régulière est introduite, essentielle pour l'étude des extrêmes, et les processus faiblement dépendants sont abordés. Le partitionnement est discuté à travers les paradigmes de séparation-proximité et de partitionnement basé sur un modèle. Nous abordons aussi l'analyse non-asymptotique pour évaluer nos méthodes dans des dimensions fixes.Le chapitre 2 est à propos de la dépendance entre valeurs maximales est cruciale pour l'analyse des risques. Utilisant la fonction de copule de valeur extrême et le madogramme, ce chapitre se concentre sur l'estimation non paramétrique avec des données manquantes. Un théorème central limite fonctionnel est établi, démontrant la convergence du madogramme vers un processus Gaussien tendu. Des formules pour la variance asymptotique sont présentées, illustrées par une étude numérique.Le chapitre 3 propose les modèles asymptotiquement indépendants par blocs (AI-blocs) pour le partitionnement de variables, définissant des clusters basés sur l'indépendance des maxima. Un algorithme est introduit pour récupérer les clusters sans spécifier leur nombre à l'avance. L'efficacité théorique de l'algorithme est démontrée, et une méthode de sélection de paramètre basée sur les données est proposée. La méthode est appliquée à des données de neurosciences et environnementales, démontrant son potentiel.Le chapitre 4 adapte des techniques de partitionnement pour analyser des événements extrêmes composites sur des données climatiques européennes. Les sous-régions présentant une dépendance des extrêmes de précipitations et de vitesse du vent sont identifiées en utilisant des données ERA5 de 1979 à 2022. Les clusters obtenus sont spatialement concentrés, offrant une compréhension approfondie de la distribution régionale des extrêmes. Les méthodes proposées réduisent efficacement la taille des données tout en extrayant des informations cruciales sur les événements extrêmes.Le chapitre 5 propose une nouvelle méthode d'estimation pour les matrices dans un modèle linéaire à facteurs latents, où chaque composante d'un vecteur aléatoire est exprimée par une équation linéaire avec des facteurs et du bruit. Contrairement aux approches classiques basées sur la normalité conjointe, nous supposons que les facteurs sont distribués selon des distributions de Fréchet standards, ce qui permet une meilleure description de la dépendance extrémale. Une méthode d'estimation est proposée garantissant une solution unique sous certaines conditions. Une borne supérieure adaptative pour l'estimateur est fournie, adaptable à la dimension et au nombre de facteurs
In a wide range of applications, from climate science to finance, extreme events with a non-negligible probability can occur, leading to disastrous consequences. Extremes in climatic events such as wind, temperature, and precipitation can profoundly impact humans and ecosystems, resulting in events like floods, landslides, or heatwaves. When the focus is on studying variables measured over time at numerous specific locations, such as the previously mentioned variables, partitioning these variables becomes essential to summarize and visualize spatial trends, which is crucial in the study of extreme events. This thesis explores several models and methods for partitioning the variables of a multivariate stationary process, focusing on extreme dependencies.Chapter 1 introduces the concepts of modeling dependence through copulas, which are fundamental for extreme dependence. The notion of regular variation, essential for studying extremes, is introduced, and weakly dependent processes are discussed. Partitioning is examined through the paradigms of separation-proximity and model-based clustering. Non-asymptotic analysis is also addressed to evaluate our methods in fixed dimensions.Chapter 2 study the dependence between maximum values is crucial for risk analysis. Using the extreme value copula function and the madogram, this chapter focuses on non-parametric estimation with missing data. A functional central limit theorem is established, demonstrating the convergence of the madogram to a tight Gaussian process. Formulas for asymptotic variance are presented, illustrated by a numerical study.Chapter 3 proposes asymptotically independent block (AI-block) models for partitioning variables, defining clusters based on the independence of maxima. An algorithm is introduced to recover clusters without specifying their number in advance. Theoretical efficiency of the algorithm is demonstrated, and a data-driven parameter selection method is proposed. The method is applied to neuroscience and environmental data, showcasing its potential.Chapter 4 adapts partitioning techniques to analyze composite extreme events in European climate data. Sub-regions with dependencies in extreme precipitation and wind speed are identified using ERA5 data from 1979 to 2022. The obtained clusters are spatially concentrated, offering a deep understanding of the regional distribution of extremes. The proposed methods efficiently reduce data size while extracting critical information on extreme events.Chapter 5 proposes a new estimation method for matrices in a latent factor linear model, where each component of a random vector is expressed by a linear equation with factors and noise. Unlike classical approaches based on joint normality, we assume factors are distributed according to standard Fréchet distributions, allowing a better description of extreme dependence. An estimation method is proposed, ensuring a unique solution under certain conditions. An adaptive upper bound for the estimator is provided, adaptable to dimension and the number of factors
Styles APA, Harvard, Vancouver, ISO, etc.
3

Harel, Michel. « Convergence faible de la statistique linéaire de rang pour des variables aléatoires faiblement dépendantes et non stationnaires ». Paris 11, 1989. http://www.theses.fr/1989PA112359.

Texte intégral
Résumé :
There is three parts in this work. In the first part we study the weak: convergence of the truncated and weighted empirical process for sequences of q> mixing or strong mixing and non-stationary random variables. Then we extend these results to the weighted empirical process indexed by rectangles. After the definition of a new process called split process, we prove the weak: convergence of this process weighted by a function. In the second part, we deduce the weak: convergence of the multi-dimensional linear rank statistic as well as the serial linear rank statistic always under mixing and non-stationary conditions. Then, we establish the weak: convergence of a two sample linear rank statistic. At last, in the third part, we prove the weak: invariance of the U-statistic as well as a signed rank statistic under absolutely regularity and non-stationary conditions
Ce travail est composé de trois parties. La première consiste en la convergence faible du processus empirique tronqué corrigé pour des suites de variables aléatoires non stationnaires
Styles APA, Harvard, Vancouver, ISO, etc.
4

Kabui, Ali. « Value at risk et expected shortfall pour des données faiblement dépendantes : estimations non-paramétriques et théorèmes de convergences ». Phd thesis, Université du Maine, 2012. http://tel.archives-ouvertes.fr/tel-00743159.

Texte intégral
Résumé :
Quantifier et mesurer le risque dans un environnement partiellement ou totalement incertain est probablement l'un des enjeux majeurs de la recherche appliquée en mathématiques financières. Cela concerne l'économie, la finance, mais d'autres domaines comme la santé via les assurances par exemple. L'une des difficultés fondamentales de ce processus de gestion des risques est de modéliser les actifs sous-jacents, puis d'approcher le risque à partir des observations ou des simulations. Comme dans ce domaine, l'aléa ou l'incertitude joue un rôle fondamental dans l'évolution des actifs, le recours aux processus stochastiques et aux méthodes statistiques devient crucial. Dans la pratique l'approche paramétrique est largement utilisée. Elle consiste à choisir le modèle dans une famille paramétrique, de quantifier le risque en fonction des paramètres, et d'estimer le risque en remplaçant les paramètres par leurs estimations. Cette approche présente un risque majeur, celui de mal spécifier le modèle, et donc de sous-estimer ou sur-estimer le risque. Partant de ce constat et dans une perspective de minimiser le risque de modèle, nous avons choisi d'aborder la question de la quantification du risque avec une approche non-paramétrique qui s'applique à des modèles aussi généraux que possible. Nous nous sommes concentrés sur deux mesures de risque largement utilisées dans la pratique et qui sont parfois imposées par les réglementations nationales ou internationales. Il s'agit de la Value at Risk (VaR) qui quantifie le niveau de perte maximum avec un niveau de confiance élevé (95% ou 99%). La seconde mesure est l'Expected Shortfall (ES) qui nous renseigne sur la perte moyenne au delà de la VaR.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Prieur, Clementine. « APPLICATIONS STATISTIQUES DE SUITES FAIBLEMENT DEPENDANTES ET DE SYSTEMES DYNAMIQUES ». Phd thesis, Université de Cergy Pontoise, 2001. http://tel.archives-ouvertes.fr/tel-00001436.

Texte intégral
Résumé :
Cette thèse porte sur l'étude
d'applications statistiques de suites dépendantes et
stationnaires. Nous étudions deux classes de suites
dépendantes. Nous nous intéressons d'une part à des suites
faiblement dépendantes, où notre notion de dépendance faible est
une variante de la notion introduite par Doukhan \& Louhichi, d'autre part à certains systèmes dynamiques
présentant une propriété de décroissance des
corrélations. Nous traitons du comportement asymptotique du
processus empirique, fondamental en statistiques. Nous étudions
aussi un estimateur à noyau de la densité dans nos deux cadres de
dépendance. Enfin, nous nous intéressons à un problème de
rupture d'une fonction de régression en dépendance faible. A ces
fins, nous développons des idées de Rio pour montrer un
théorème limite centrale en dépendance faible, ainsi que des
nouvelles inégalités de moments qui étendent celles de Louhichi. Enfin, nous illustrons certains de nos résultats par des
simulations.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Wintenberger, Olivier. « Contributions à la statistique des processus : estimation, prédiction et extrêmes ». Habilitation à diriger des recherches, Université Paris Dauphine - Paris IX, 2012. http://tel.archives-ouvertes.fr/tel-00757756.

Texte intégral
Résumé :
Ce mémoire d'habilitation traite de la statistique des processus à temps discret faiblement dépendants. Une première partie présente des résultats asymptotiques d'estimation pour les paramètres de modèles affines généraux. La méthode étudiée est la maximisation du critère de quasi-vraisemblance. Afin de traiter de possibles ruptures de stationnarité, nous pénalisons ce critère par le nombre de ruptures. Pour les modèles à volatilité comme le modèle EGARCH, cette procédure est instable et nous proposons de contraindre le critère au domaine dit d'inversibilité continue. Nous étudions le problème de la prédiction de processus faiblement dépendants dans une seconde partie. Les résultats obtenus sont des inégalités d'oracle non asymptotiques nécessitant l'étude préalable des propriétés de concentration gaussiennes de lois faiblement dépendantes. Pour ce faire nous utilisons une notion de transport faible et de nouvelles inégalités dites de transport conditionnel. Enfin, le comportement des extrêmes en présence de dépendance fait l'objet de la troisième partie. Nous introduisons un indice de {\it cluster} qui caractérise les lois limites $\alpha$-stables dans le théorème de la limite centrale et les grandes déviations des sommes partielles à variation régulière. Nous traitons des exemples de processus à queues épaisses tels que les solutions des équations récurrentes stochastiques linéaires et le modèle GARCH. Nous appliquons ces résultats pour caractériser asymptotiquement les erreurs d'estimation des auto-covariances de processus à queues épaisses.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Yahaya, Mohamed. « Extension au cadre spatial de l'estimation non paramétrique par noyaux récursifs ». Thesis, Lille 3, 2016. http://www.theses.fr/2016LIL30066/document.

Texte intégral
Résumé :
Dans cette thèse, nous nous intéressons aux méthodes dites récursives qui permettent une mise à jour des estimations séquentielles de données spatiales ou spatio-temporelles et qui ne nécessitent pas un stockage permanent de toutes les données. Traiter et analyser des flux des données, Data Stream, de façon effective et efficace constitue un défi actif en statistique. En effet, dans beaucoup de domaines d'applications, des décisions doivent être prises à un temps donné à la réception d'une certaine quantité de données et mises à jour une fois de nouvelles données disponibles à une autre date. Nous proposons et étudions ainsi des estimateurs à noyau de la fonction de densité de probabilité et la fonction de régression de flux de données spatiales ou spatio-temporelles. Plus précisément, nous adaptons les estimateurs à noyau classiques de Parzen-Rosenblatt et Nadaraya-Watson. Pour cela, nous combinons la méthodologie sur les estimateurs récursifs de la densité et de la régression et celle d'une distribution de nature spatiale ou spatio-temporelle. Nous donnons des applications et des études numériques des estimateurs proposés. La spécificité des méthodes étudiées réside sur le fait que les estimations prennent en compte la structure de dépendance spatiale des données considérées, ce qui est loin d'être trivial. Cette thèse s'inscrit donc dans le contexte de la statistique spatiale non-paramétrique et ses applications. Elle y apporte trois contributions principales qui reposent sur l'étude des estimateurs non-paramétriques récursifs dans un cadre spatial/spatio-temporel et s'articule autour des l'estimation récursive à noyau de la densité dans un cadre spatial, l'estimation récursive à noyau de la densité dans un cadre spatio-temporel, et l'estimation récursive à noyau de la régression dans un cadre spatial
In this thesis, we are interested in recursive methods that allow to update sequentially estimates in a context of spatial or spatial-temporal data and that do not need a permanent storage of all data. Process and analyze Data Stream, effectively and effciently is an active challenge in statistics. In fact, in many areas, decisions should be taken at a given time at the reception of a certain amount of data and updated once new data are available at another date. We propose and study kernel estimators of the probability density function and the regression function of spatial or spatial-temporal data-stream. Specifically, we adapt the classical kernel estimators of Parzen-Rosenblatt and Nadaraya-Watson. For this, we combine the methodology of recursive estimators of density and regression and that of a distribution of spatial or spatio-temporal data. We provide applications and numerical studies of the proposed estimators. The specifcity of the methods studied resides in the fact that the estimates take into account the spatial dependence structure of the relevant data, which is far from trivial. This thesis is therefore in the context of non-parametric spatial statistics and its applications. This work makes three major contributions. which are based on the study of non-parametric estimators in a recursive spatial/space-time and revolves around the recursive kernel density estimate in a spatial context, the recursive kernel density estimate in a space-time and recursive kernel regression estimate in space
Styles APA, Harvard, Vancouver, ISO, etc.

Livres sur le sujet "Processus faiblement dépendant"

1

Rio, Emmanuel. Théorie asymptotique des processus aléatoires faiblement dépendants (Mathématiques et Applications). Springer, 1999.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie