Littérature scientifique sur le sujet « Intensité du signal reçu »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Intensité du signal reçu ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Intensité du signal reçu"

1

Bergstrom, Victoria. « Entre signal reçu et crypté : Pierre Alferi's Poetics of Remediation ». French Forum 45, no 2 (2020) : 205–21. http://dx.doi.org/10.1353/frf.2020.0016.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Moreau, Marc, Catherine Leclerc et Isabelle Néant. « La saga de l’induction neurale : presque un siècle de recherche ». médecine/sciences 36, no 11 (novembre 2020) : 1018–26. http://dx.doi.org/10.1051/medsci/2020172.

Texte intégral
Résumé :
La formation du système nerveux débute par l’induction neurale, un processus qui permet aux cellules de l’ectoderme (tissu cible) d’acquérir un destin neural en réponse à des signaux provenant du mésoderme dorsal (tissu inducteur). Ce processus, décrit en 1924 sur l’amphibien, n’a reçu une explication moléculaire qu’au milieu des années 1990. Pendant cette période, plusieurs auteurs se sont intéressés au rôle joué par la membrane du tissu cible mais peu de travaux décisifs ont décrit la transduction du signal neuralisant. Entre 1990 et 2019, nous avons disséqué la transduction du signal neuralisant, un sujet très peu abordé alors. Nous avons souligné le rôle nécessaire et suffisant du calcium pour orienter les cellules de l’ectoderme vers un destin neural et établi la cascade moléculaire allant de l’activation de canaux membranaires à la transcription de gènes.
Styles APA, Harvard, Vancouver, ISO, etc.
3

M’Bailara, K., S. Gard, E. Rouan, M. Chive, L. Zanouy, I. Minois, M. Bouteloux, A. Jutant et A. Desage. « Poids de l’évolution des représentations sur les stratégies d’adaptation des patients et des familles confrontées au trouble bipolaire ». European Psychiatry 29, S3 (novembre 2014) : 620. http://dx.doi.org/10.1016/j.eurpsy.2014.09.105.

Texte intégral
Résumé :
Vivre au quotidien avec un trouble bipolaire ou vivre avec un patient atteint d’un trouble bipolaire génère un stress familial intense [1]. Les recommandations de la Haute Autorité de santé (HAS) et le développement parallèle de l’éducation thérapeutique du patient proposent 3 axes prioritaires de prise en charge des aidants familiaux : l’information sur le trouble, l’aide dans la gestion du trouble au quotidien et le soutien psychologique. Dans ce contexte, les programmes de psychoéducation familiale constituent un dispositif pertinent pour répondre à la question complexe de la place des familles dans la prise en charge : comment inclure les aidants dans le soin tout en leur garantissant de ne pas devenir des soignants [2] ? Des nombreuses études ont pointé le bénéfice d’une telle prise en charge sur l’évolution de la pathologie [3,4]. Ainsi dans le cas des troubles bipolaires, la psychoéducation a un impact sur le nombre d’épisodes dépressifs et maniaques, sur leur durée et leur intensité. À l’heure actuelle peu de travaux nous renseignent sur les mécanismes qui permettent une telle amélioration et en particulier sur les processus favorisant les modifications de stratégies des personnes dans la gestion du trouble bipolaires. Un des leviers essentiel à évaluer concerne la représentation de la maladie. En effet, l’éducation thérapeutique place d’emblée la personne au cœur du dispositif en s’appuyant sur ses connaissances et sa représentation de la maladie et ne peut se réduire à l’instruction. Notre objectif est donc d’évaluer le poids de l’évolution des représentations sur les stratégies d’adaptation des patients et des familles confrontées au trouble bipolaire. Cette étude a été effectuée auprès de patients ayant reçu un diagnostic de trouble bipolaires et de leur famille pris en charge dans un programme de psychoéducation de 12 séances (sur 6 mois). Nos résultats offrent des pistes de compréhension des processus en jeu au cours d’une psychoéducation multifamiliale.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Catros, Véronique. « Les CAR-T cells, des cellules tueuses spécifiques d’antigènes tumoraux ». médecine/sciences 35, no 4 (avril 2019) : 316–26. http://dx.doi.org/10.1051/medsci/2019067.

Texte intégral
Résumé :
Les lymphocytes T présentent des fonctions lytiques puissantes et leur adressage spécifique aux cellules tumorales afin de les détruire est un enjeu majeur. Leur ingénierie par transfert d’une construction génétique codant un fragment d’anticorps spécifique de la molécule CD19, exprimée par les lymphocytes B, fusionné à une unité de transduction d’un signal T a conduit à des résultats cliniques importants dans des formes avancées de lymphomes. Ces lymphocytes T modifiés, appelés CAR-T cells, ou plus simplement CAR pour chimeric antigen receptor, ont reçu une approbation par la Food and drug administration américaine en 2017 pour les deux premiers médicaments de thérapie cellulaire : le Kymriah™ et le Yescarta™. Ces CAR, conçus pour le traitement d’hémopathies malignes, permettent d’envisager la construction d’autres CAR dirigés, eux, contre des tumeurs solides. De nouvelles générations de CAR visent à mieux contrôler leur prolifération et à améliorer leurs fonctions in vivo grâce à la mise en place de mécanismes d’inactivation inductibles. Le développement des multi-CAR, des CAR spécifiques de plusieurs cibles, et leur combinaison aux inhibiteurs de points de contrôle immunitaires ouvrent une nouvelle ère pour l’immunothérapie des tumeurs.
Styles APA, Harvard, Vancouver, ISO, etc.
5

De Sloovere, Pierre, Pierre Colin, Jean-Louis Mauss, Hubert Godin et Stefano Priano. « La sismique fréquentielle, outil pour vérifier la continuite de la transmission des contraintes dans un massif applications aux injections, vides, voutes de tunnel ». E3S Web of Conferences 504 (2024) : 04003. http://dx.doi.org/10.1051/e3sconf/202450404003.

Texte intégral
Résumé :
La sismique fréquentielle est une méthode peu utilisée bien que très puissante pour vérifier la continuité des contraintes dans un massif. Mise au point pour des contrôles d’injection, elle est utile par exemple pour déterminer que le toit d'une exploitation minière est resté stable, même 50 ans après son abandon (cas de Chizeuil). Cela peut l'être aussi pour détecter des karsts inattendus sous des fondations (cas de Tournai). Le principe en est simple : il s'agit d'émettre un choc mécanique dans un terrain et d'analyser en fréquence le signal reçu par un récepteur en plusieurs points du massif. Le champ de contrainte produit par le choc voit son spectre modifié par le terrain : en milieu continu, le modèle de Kelvin-Voigt montre que les fréquences transmises sont plus élevées si le module élastique est élevé ; il en est de même si la viscosité est élevée. En milieu fracturé, les fractures jouent le rôle d'un filtre passe bas : à toute largeur de fissure correspond une longueur d’onde minimale au-delà de laquelle il n'y a pas transmission de la vibration de part et d’autre de la fracture. En conséquence, les hautes fréquences ne passent que s'il n'y a pas de fissures, si le module élastique est élevé et si la viscosité importante, ce qui est un objectif commun à tout constructeur. A Chizeuil, sept forages de 50 mètres réalisés au-dessus de l’exploitation ont permis de montrer que les hautes fréquences étaient transmises au-dessus de la mine sur 20 mètres ou plus avec une remarquable continuité ; aucune basse fréquence n'apparaît, le toit de la mine n'est donc pas fissuré. L'exemple de Tournai est l'inverse du précédent : une trentaine de forages de 18 mètres de profondeur ont permis de dessiner une carte sommaire des karsts en dessous de fondations en cours de réalisation et de délimiter précisément un certain nombre de secteurs, ce qui a permis de poursuivre la construction avec un maximum d'informations.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Reu, Frederic J., Tomas Radivoyevitch, Jason Valent, Chad Cummings, Katherine Tullio, Debbie Hastings, Beth M. Faiman et al. « Response-Adapted Therapy for Newly Diagnosed Myeloma ». Blood 128, no 22 (2 décembre 2016) : 3606. http://dx.doi.org/10.1182/blood.v128.22.3606.3606.

Texte intégral
Résumé :
Abstract Background: Before SWOG S0777 (Durie BGM at al. ASH 2015, abstract #25) it was not clear whether standard upfront regimens VRd (bortezomib, lenalidomide, dexamethasone) or Rd (lenalidomide, dexamethasone) yield different survival outcomes for newly diagnosed myeloma patients (pts.) but it was known that the higher response rate of VRd comes at a higher risk for severe peripheral neuropathy. Since no test predicts who requires the more toxic regimen to avoid adverse myeloma effects we designed a carepath that tailors therapy according to early response endpoints. Methods: Newly diagnosed symptomatic MM patients (pts) with measurable disease who were not eligible for or elected against a clinical trial were advised to begin a 2-drug regimen of lenalidomide (R) and weekly dexamethasone (d) or, if cast nephropathy suspected or R copay too high, bortezomib (V) and dexamethasone (D). Depending on response assessment per IMWG 2011 criteria after each cycle, treatment intensity was to be increased with sequential addition of agents (R or V, cyclophosphamide, and then liposomal doxorubicin) when there was not at least minor response (MR) after the first, or at least partial response (PR) after the second cycle of an administered combination. Once PR was reached, pts. were evaluated for high dose melphalan (HDM) and ASCT or consolidation with their induction regimen followed in either case by lenalidomide or bortezomib maintenance. After IRB approval, pts treated on carepath were identified through our registry and electronic medical records were reviewed. Results: From Oct 2012 to Dec 2015 the carepath was used in 91 pts. Their median age at treatment start was 64 years (34-84), 40 (44%) were ≥ 65, 11 (12%) ≥ 75 years old; at least one cytogenetic risk study (MyPRS®, FISH panel, karyotype analysis) was obtained in 81 (89%) and of them 23 (28.4%) had high risk features (MyPRS® score > 45.2, del17p, 1q amp, t4;14, t;14;16 and non-hyperdiploid karyotype abnormalities), 33 (36%) had ISS stage III and 21 (23%) had serum creatinine ≥ 2mg/dL, 6 (7%) were on dialysis. At median follow up of 20.5 months (1.7-44.6), at least PR was achieved in 84 pts (92%), at least very good partial remission (VGPR) in 63 (69%), with negative immunofixation in blood and urine in 24 (26%) and complete remission (CR) documented by bone marrow exam in 6 (7%). Only one pt (1%) had progressive disease as best response, stable disease and MR were seen in 3 pts. (3%) each. Induction required 2, 3, 4 and 5 drugs in 49 (54%), 33 (36%), 8 (9%), 1 (1%) pts, respectively, and was followed by high dose melphalan and autologous stem cell transplant in 19 (21%). Sixty-three pts. (69%) remain on carepath treatment without progression, while 28 (31%) have experienced progression with skeletal events in 4 (4%) and ARF in 2 pts. (2%). Nine pts. (10%) have died, 4 while in remission of whom 3 suffered a bleed while anticoagulated for DVT or pre-existing A-fib and died 1 after transition to hospice; the remaining 5 died after progression, of infection (3), secondary plasma cell leukemia (1), or after transition to hospice (2). No patient developed shingles or second primary malignancies so far; mild peripheral neuropathy (PNP) occurred in 27 pts (30%), severe or painful PNP in 4 (4%) and 8 pts. (9%) suffered venous thromboembolism (9%) on DVT prophylaxis with aspirin. Conclusions: Carepath therapy required only two drugs during induction in over 50% of patients to achieve an overall response rate of 92% with ≥ VGPR in 69% in a real-world setting without exclusion of patients on dialysis. Reduction in costs and side effects compared to upfront use of VRd for everyone were accompanied by promising early Kaplan-Meier estimates for progression-free and overall survival (Fig. 1) supporting the carepath principle and future randomized comparison of response-adapted therapy to fixed regimens like the new SWOG S0777 defined standard triplet VRd. Disclosures Reu: Novartis: Research Funding; Takeda: Research Funding; Celgene: Research Funding; Signal Genetics: Consultancy. Valent:Celgene: Speakers Bureau; Takeda: Speakers Bureau. Faiman:Celgene: Consultancy, Speakers Bureau; Amgen: Consultancy; Takeda: Consultancy. Hamilton:Takeda: Speakers Bureau. Smith:Celgene: Honoraria; Spectrum: Honoraria; Genentech: Honoraria; Abbvie: Research Funding.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Zhu, Shuping, Wei Gao et Xiaolei Li. « SSANet : normal-mode interference spectrum extraction via SSA algorithm-unrolled neural network ». Frontiers in Marine Science 10 (1 février 2024). http://dx.doi.org/10.3389/fmars.2023.1342090.

Texte intégral
Résumé :
In ocean acoustic fields, extracting the normal-mode interference spectrum (NMIS) from the received sound intensity spectrum (SIS) plays an important role in waveguide-invariant estimation and underwater source ranging. However, the received SIS often has a low signal-to-noise ratio (SNR) owing to ocean ambient noise and the limitations of the received equipment. This can lead to significant performance degradation for the traditional methods of extracting NMIS at low SNR conditions. To address this issue, a new deep neural network model called SSANet is proposed to obtain NMIS based on unrolling the traditional singular spectrum analysis (SSA) algorithm. First, the steps of embedding and singular value decomposition (SVD) in SSA is achieved by the convolutional network. Second, the grouping step of the SSA is simulated using the matrix multiply weight layer, ReLU layer, point multiply weight layer and matrix multiply weight layer. Third, the diagonal averaging step was implemented using a fully connected network. Simulation results in canonical ocean waveguide environments demonstrate that SSANet outperforms other traditional methods such as Fourier transform (FT), multiple signal classification (MUSIC), and SSA in terms of root mean square error, mean absolute error, and extraction performance.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Cockx, Bart, Muriel Dejemeppe et Bruno Van der Linden. « Numéro 85 (fr) - février 2011 ». Regards économiques, 12 octobre 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15113.

Texte intégral
Résumé :
À l’initiative du gouvernement fédéral, on a assisté depuis 2004 à des changements majeurs dans le cadre de l’assurance-chômage en Belgique. Le principe d’octroi d’allocations d’assurance à durée illimitée a en soi été renforcé par l’abolition progressive de l’article 80, qui limitait uniquement la durée de l’indemnisation des chômeurs cohabitants. Parallèlement, s’est mis en place le dispositif d’Activation du Comportement de Recherche d’emploi (ACR), qui consiste à convoquer les chômeurs indemnisés pour des entretiens individuels périodiques durant lesquels un facilitateur de l’ONEM évalue leurs activités de recherche d’emploi. L’introduction de l’ACR implique que toutes les catégories de chômeurs courent un risque de réduction ou de suspension, temporaire ou non, des allocations de chômage en raison d’une intensité de recherche insuffisante. Précisons que la procédure d’ACR a été introduite en étapes, par catégorie d’âge : à partir de juillet 2004, les moins de 30 ans étaient concernés par la procédure, à partir de juillet 2005, les moins de 40 ans, et à partir de juillet 2006, les moins de 50 ans. Ce nouveau plan reste controversé : «chasse aux chômeurs» pour les uns, ingrédient essentiel de toute politique de réduction du chômage pour les autres. Le plan d’accompagnement et de suivi des chômeurs favorise-t-il un retour plus rapide à l’emploi ? Et si oui, dans toutes les régions, pour tous les types de demandeurs d’emploi, au détriment de la qualité des emplois acceptés ? Les étapes de l’ACRUn élément essentiel de l’ACR est l’envoi d’une lettre d’avertissement environ 8 mois avant le premier entretien en vue d’informer le chômeur indemnisé de ses obligations et du déroulement de la procédure de contrôle. L’envoi de cette lettre s’effectue après une durée d’inoccupation mesurée de manière spécifique et variable selon l’âge (7 mois sous l’âge de 25 ans, 13 mois au-delà). Si les efforts de recherche d’emploi sont jugés insuffisants lors du premier entretien d’évaluation, le chômeur n’est pas encore sanctionné mais un plan d’action est mis en place. Environ quatre mois plus tard, un deuxième entretien a lieu. Une évaluation négative des efforts de recherche entraîne alors une sanction temporaire (réduction ou suspension des allocations de chômage) et la mise en place d’un second plan d’action. Si les efforts de recherche sont jugés une troisième fois insuffisants, une exclusion du droit aux allocations de chômage s’applique. Des procédures de recours sont prévues par la législation. L’évaluation de l’ACRL’essentiel de notre évaluation porte sur la population des chômeurs indemnisés âgés de 25 à 30 ans qui ont reçu une lettre d’avertissement de l’ONEM en 2004 dans le cadre de la procédure d’ACR et dont nous avons reconstitué le parcours sur le marché du travail jusque fin 2006. Nos résultats montrent que l’ACR accélère de manière significative leur transition du chômage vers l’emploi et ceci même bien avant que des entretiens d’évaluation ont lieu ou des sanctions sont imposées : 92 % de l’effet se réalise avant que les personnes concernées ne soient sanctionnées. Ceci se comprend par un effet d’anticipation. Les chômeurs accroissent leurs efforts de recherche afin d’éviter une évaluation (négative) et ses conséquences. L’effet est plus fort en Flandre qu’en Wallonie et à Bruxelles. Le contrôle de la recherche se montre donc surtout efficace là où les offres d’emplois sont abondantes. Dans ce cas, le contrôle s’avère même plus efficace pour un chômeur peu qualifié que qualifié. Sans perdre toute son efficacité, le contrôle semble cependant favoriser davantage l’embauche des travailleurs qualifiés là où les offres d’emploi sont plus rares. Pour les chômeurs qui retrouvent un emploi, le salaire obtenu est en moyenne plus faible en raison de l’ACR, mais la baisse est modeste. L’effet du relèvement de revenu engendré par l’accès plus rapide à l’emploi domine cette baisse de salaire. Pour les comptes de l’Etat, la mise en place de l’ACR engendre un gain modeste. Ce gain est en moyenne plus élevé que la baisse des perspectives de revenus du chômeur qui entre dans l’ACR. Pour aboutir à cette conclusion, nous prenons en compte le payement des allocations d’assurance et de revenu d’insertion diminuées des recettes fiscales et des cotisations sociales. Cet ensemble de conclusions ne peut être imprudemment extrapolé aux autres tranches d’âge concernées ultérieurement par l’ACR. Même sous l’hypothèse que nos conclusions qualitatives s’étendent à l’ensemble de la population actuellement visée par l’ACR (les moins de cinquante ans), elle n’est qu’une composante de la politique de lutte contre le chômage, qui, à elle seule et dans sa forme actuelle, ne pourrait avoir qu’un impact limité sur le chômage total au niveau du pays. En rythme de croisière, en 2009, quand toutes les classes d’âge en dessous de 50 ans sont concernées, par mois 2,5 % du stock de chômeurs complets indemnisés recevait l’avertissement de l’ACR. Vu cette faible proportion, il est évident que l’ACR n’est pas la panacée qui expliquerait la baisse significative du chômage total entre 2004 et 2008. L’analyse que nous avons menée sur le rôle possible de l’ACR dans l’évolution du chômage global montre que la baisse du chômage entre 2004 et 2008 vient principalement de l’amélioration de la conjoncture dans la période concernée. L’ACR y a contribué, mais vu le nombre relativement faible de chômeurs concernés et l’étalement de la politique sur de nombreux mois (durant lesquels nombre d’entre eux quitteraient le chômage même en l’absence de politique de contrôle), son rôle macroéconomique ne peut pas être exagéré. L’évolution du nombre de sanctions dans le cadre et en dehors de l’ACRAu niveau global encore, nous avons montré que les sanctions dans le cadre de l’ACR représentent une part croissante mais limitée du total de celles-ci. En 2009, l’ACR engendre un peu moins d’exclusions que l’article 80, qu’elle a progressivement remplacé et qui déterminait la fin de droit pour les seul(e)s cohabitant(e)s. Ceci ne peut occulter le constat que le niveau global des sanctions (tous motifs confondus) a beaucoup augmenté en Belgique et dans ses Régions (principalement en Wallonie) au cours de la seconde moitié de la décennie passée. L’augmentation des transferts d’information des organismes régionaux (FOREM, VDAB, ACTIRIS) vers l’ONEM (suite à l’accord de coopération de 2004) et le développement du croisement des informations disponibles dans les divers fichiers de la Sécurité Sociale sont des facteurs d’explication importants de ces évolutions. En 2009, le nombre de transmissions par demandeur d’emploi inoccupé indemnisé représentait une fréquence mensuelle de 0,8 % à Bruxelles, 1,1 % en Flandre et 1,5 % en Wallonie en 2009. En 2003, elles s’élevaient seulement à 0,4 % à Bruxelles, 0,3 % en Flandre et 0,02 % en Wallonie. Conclusion et recommandations politiquesEn résumé, nous estimons que l’ACR et le contrôle de la disponibilité des chômeurs sont une contrepartie nécessaire d’une spécificité belge, à savoir le principe d’une indemnisation des chômeurs pour une durée illimitée dans le cadre de l’assurance-chômage. Mais, la procédure d’ACR doit être réformée. Il faut d’une part commencer le premier entretien d’évaluation plus tôt dans l’épisode de chômage pour que le chômeur soit conscient plus tôt de ses obligations et pour que les avantages du système puissent se faire sentir sur une population plus large. D’autre part, il nous paraît nécessaire de renforcer encore l’objectivité de la procédure d’évaluation.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Cockx, Bart, Muriel Dejemeppe et Bruno Van der Linden. « Numéro 85 (fr) - février 2011 ». Regards économiques, 12 octobre 2018. http://dx.doi.org/10.14428/regardseco2011.02.01.

Texte intégral
Résumé :
À l’initiative du gouvernement fédéral, on a assisté depuis 2004 à des changements majeurs dans le cadre de l’assurance-chômage en Belgique. Le principe d’octroi d’allocations d’assurance à durée illimitée a en soi été renforcé par l’abolition progressive de l’article 80, qui limitait uniquement la durée de l’indemnisation des chômeurs cohabitants. Parallèlement, s’est mis en place le dispositif d’Activation du Comportement de Recherche d’emploi (ACR), qui consiste à convoquer les chômeurs indemnisés pour des entretiens individuels périodiques durant lesquels un facilitateur de l’ONEM évalue leurs activités de recherche d’emploi. L’introduction de l’ACR implique que toutes les catégories de chômeurs courent un risque de réduction ou de suspension, temporaire ou non, des allocations de chômage en raison d’une intensité de recherche insuffisante. Précisons que la procédure d’ACR a été introduite en étapes, par catégorie d’âge : à partir de juillet 2004, les moins de 30 ans étaient concernés par la procédure, à partir de juillet 2005, les moins de 40 ans, et à partir de juillet 2006, les moins de 50 ans. Ce nouveau plan reste controversé : «chasse aux chômeurs» pour les uns, ingrédient essentiel de toute politique de réduction du chômage pour les autres. Le plan d’accompagnement et de suivi des chômeurs favorise-t-il un retour plus rapide à l’emploi ? Et si oui, dans toutes les régions, pour tous les types de demandeurs d’emploi, au détriment de la qualité des emplois acceptés ? Les étapes de l’ACRUn élément essentiel de l’ACR est l’envoi d’une lettre d’avertissement environ 8 mois avant le premier entretien en vue d’informer le chômeur indemnisé de ses obligations et du déroulement de la procédure de contrôle. L’envoi de cette lettre s’effectue après une durée d’inoccupation mesurée de manière spécifique et variable selon l’âge (7 mois sous l’âge de 25 ans, 13 mois au-delà). Si les efforts de recherche d’emploi sont jugés insuffisants lors du premier entretien d’évaluation, le chômeur n’est pas encore sanctionné mais un plan d’action est mis en place. Environ quatre mois plus tard, un deuxième entretien a lieu. Une évaluation négative des efforts de recherche entraîne alors une sanction temporaire (réduction ou suspension des allocations de chômage) et la mise en place d’un second plan d’action. Si les efforts de recherche sont jugés une troisième fois insuffisants, une exclusion du droit aux allocations de chômage s’applique. Des procédures de recours sont prévues par la législation. L’évaluation de l’ACRL’essentiel de notre évaluation porte sur la population des chômeurs indemnisés âgés de 25 à 30 ans qui ont reçu une lettre d’avertissement de l’ONEM en 2004 dans le cadre de la procédure d’ACR et dont nous avons reconstitué le parcours sur le marché du travail jusque fin 2006. Nos résultats montrent que l’ACR accélère de manière significative leur transition du chômage vers l’emploi et ceci même bien avant que des entretiens d’évaluation ont lieu ou des sanctions sont imposées : 92 % de l’effet se réalise avant que les personnes concernées ne soient sanctionnées. Ceci se comprend par un effet d’anticipation. Les chômeurs accroissent leurs efforts de recherche afin d’éviter une évaluation (négative) et ses conséquences. L’effet est plus fort en Flandre qu’en Wallonie et à Bruxelles. Le contrôle de la recherche se montre donc surtout efficace là où les offres d’emplois sont abondantes. Dans ce cas, le contrôle s’avère même plus efficace pour un chômeur peu qualifié que qualifié. Sans perdre toute son efficacité, le contrôle semble cependant favoriser davantage l’embauche des travailleurs qualifiés là où les offres d’emploi sont plus rares. Pour les chômeurs qui retrouvent un emploi, le salaire obtenu est en moyenne plus faible en raison de l’ACR, mais la baisse est modeste. L’effet du relèvement de revenu engendré par l’accès plus rapide à l’emploi domine cette baisse de salaire. Pour les comptes de l’Etat, la mise en place de l’ACR engendre un gain modeste. Ce gain est en moyenne plus élevé que la baisse des perspectives de revenus du chômeur qui entre dans l’ACR. Pour aboutir à cette conclusion, nous prenons en compte le payement des allocations d’assurance et de revenu d’insertion diminuées des recettes fiscales et des cotisations sociales. Cet ensemble de conclusions ne peut être imprudemment extrapolé aux autres tranches d’âge concernées ultérieurement par l’ACR. Même sous l’hypothèse que nos conclusions qualitatives s’étendent à l’ensemble de la population actuellement visée par l’ACR (les moins de cinquante ans), elle n’est qu’une composante de la politique de lutte contre le chômage, qui, à elle seule et dans sa forme actuelle, ne pourrait avoir qu’un impact limité sur le chômage total au niveau du pays. En rythme de croisière, en 2009, quand toutes les classes d’âge en dessous de 50 ans sont concernées, par mois 2,5 % du stock de chômeurs complets indemnisés recevait l’avertissement de l’ACR. Vu cette faible proportion, il est évident que l’ACR n’est pas la panacée qui expliquerait la baisse significative du chômage total entre 2004 et 2008. L’analyse que nous avons menée sur le rôle possible de l’ACR dans l’évolution du chômage global montre que la baisse du chômage entre 2004 et 2008 vient principalement de l’amélioration de la conjoncture dans la période concernée. L’ACR y a contribué, mais vu le nombre relativement faible de chômeurs concernés et l’étalement de la politique sur de nombreux mois (durant lesquels nombre d’entre eux quitteraient le chômage même en l’absence de politique de contrôle), son rôle macroéconomique ne peut pas être exagéré. L’évolution du nombre de sanctions dans le cadre et en dehors de l’ACRAu niveau global encore, nous avons montré que les sanctions dans le cadre de l’ACR représentent une part croissante mais limitée du total de celles-ci. En 2009, l’ACR engendre un peu moins d’exclusions que l’article 80, qu’elle a progressivement remplacé et qui déterminait la fin de droit pour les seul(e)s cohabitant(e)s. Ceci ne peut occulter le constat que le niveau global des sanctions (tous motifs confondus) a beaucoup augmenté en Belgique et dans ses Régions (principalement en Wallonie) au cours de la seconde moitié de la décennie passée. L’augmentation des transferts d’information des organismes régionaux (FOREM, VDAB, ACTIRIS) vers l’ONEM (suite à l’accord de coopération de 2004) et le développement du croisement des informations disponibles dans les divers fichiers de la Sécurité Sociale sont des facteurs d’explication importants de ces évolutions. En 2009, le nombre de transmissions par demandeur d’emploi inoccupé indemnisé représentait une fréquence mensuelle de 0,8 % à Bruxelles, 1,1 % en Flandre et 1,5 % en Wallonie en 2009. En 2003, elles s’élevaient seulement à 0,4 % à Bruxelles, 0,3 % en Flandre et 0,02 % en Wallonie. Conclusion et recommandations politiquesEn résumé, nous estimons que l’ACR et le contrôle de la disponibilité des chômeurs sont une contrepartie nécessaire d’une spécificité belge, à savoir le principe d’une indemnisation des chômeurs pour une durée illimitée dans le cadre de l’assurance-chômage. Mais, la procédure d’ACR doit être réformée. Il faut d’une part commencer le premier entretien d’évaluation plus tôt dans l’épisode de chômage pour que le chômeur soit conscient plus tôt de ses obligations et pour que les avantages du système puissent se faire sentir sur une population plus large. D’autre part, il nous paraît nécessaire de renforcer encore l’objectivité de la procédure d’évaluation.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Intensité du signal reçu"

1

Le, Minh Hoang. « Various Positioning Algorithms based on Received Signal Strength and/or Time/Direction (Difference) of Arrival for 2D and 3D Scenarios ». Electronic Thesis or Diss., Sorbonne université, 2022. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2022SORUS072.pdf.

Texte intégral
Résumé :
Localisation a fasciné les chercheurs pendant des siècles et a motivé un grand nombre d'études et de développements dans le domaine des communications. Le but du positionnement est de localiser le dispositif mobile. Les algorithmes de positionnement peuvent être divisés en 3 méthodes : Trilatération, Multilatération et Triangulation. La trilatération utilise les distances entre le dispositif mobile et toutes les stations de base pour estimer la position du mobile. Ces distances peuvent être estimées par le Temps d'Arrivée (ToA) ou l'Intensité du Signal Reçu (RSS). Dans la multilatération, la localisation est basée sur la Différence de Temps d'Arrivée (TDoA) des deux ToAs. La Triangulation, quand à elle, utilise les directions des signaux incidents. La Direction d'Arrivée (DoA) de chaque onde incidente est comptée pour résoudre le problème de positionnement. Chaque DoA est exprimée par un angle dans les scénarios 2D, et par une paire d'angles dans les scénarios 3D. Il existe des différences notables entre le positionnement au niveau du réseau et l'autopositionnement. Dans le positionnement au niveau du réseau, le dispositif mobile est directement localisé sur la base des DoA des signaux incidents ; tandis que dans l'autopositionnement, sa position est estimée par la Différence de Direction d'Arrivée (DdoA) entre chaque paire de signaux incidents, car la DoA de chaque signal arrivant au dispositif mobile est ambiguë. Dans cette thèse, nous étudions toutes les approches de localisation ci-dessus. Nous nous focaliserons ici plus particulièrement sur la Triangulation, qui comporte de nombreux sous-scénarios à analyser. Les résultats sont obtenus par des simulations MATLAB
Localization has fascinated the researchers for centuries and has motivated a large amount of studies and developments in communications. The aim of positioning problems is to determine the position of the mobile device. Positioning algorithms can be divided into 3 methods: Trilateration, Multilateration and Triangulation. Trilateration utilizes the distances between the mobile device and all the base stations around to estimate the mobile position. These distances can be estimated via the Time of Arrival (ToA) or the Received Signal Strength (RSS). In Multilateration, the position location is based on measured quantities whose values are a function of the Time Difference of Arrival (TDoA) of the two ToAs. As for Triangulation, the directions of the incident signals play the most crucial role in the localization. Thus, it is also referred to as Direction-based Localization. The Direction of Arrival (DoA) of each incident wave is taken into account to solve the positioning problem. Each DoA is expressed by a single angle in 2D scenarios, and a pair of angles in 3D scenarios. There are noticeable differences between Network-Positioning and Self-Positioning. In Network-Positioning, the mobile device is directly localized based on the DoAs of the incident signals; meanwhile, in Self-Positioning, its position is estimated by the Direction Difference of Arrival (DDoA) between each pair of incident signals, because the DoA of each signal arriving to the Mobile Device is ambiguous. In this dissertation, we study all the localization approaches described above. Our spotlight is for Triangulation, which has many sub-scenarios to analyze. The results are obtained by MATLAB simulations
Styles APA, Harvard, Vancouver, ISO, etc.
2

Garnier, Carole. « Segmentation de la prostate pour la thérapie par Ultrasons Haute Intensité guidée par l'image ». Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00498035.

Texte intégral
Résumé :
Ce travail traite le problème de la segmentation d'images échographiques de prostate acquises en condition per-opératoire dans le cadre de la destruction de tumeurs effectuée par une technique d'ultrasons haute intensité (HIFU). L'objectif est de délimiter précisément les tissus cible de façon à concentrer l'échauffement induit par les ultrasons tout en réduisant leur impact sur les structures voisines. L' étude bibliographique de l'état de l'art montre que toutes les méthodes de segmentation se référant aux dernières avancées méthodologiques ont été tentées sans pour autant apporter de réponses complètement satisfaisantes au problème du fait de la variabilité des situations rencontrées et surtout de la qualité toute relative des images dans le cas des HIFU. Les différentes solutions proposées dans cette thèse s'appuient sur les modèles déformables discrets enrichis de recherche de points d'ancrage basés gradient, couplés ou pas à une approche de détection de surface optimale. Ces solutions sont testées sur une trentaine de bases de données et analysées à la fois qualitativement et quantitativement par comparaison à des contours définis par des experts. Par ailleurs, une étude préliminaire est conduite sur la caractérisation de texture par différents types de moments (Zernike, Legendre, etc.). Les résultats obtenus montrent un comportement globalement correct et satisfaisant les temps de calcul imposés.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Esneault, Simon. « Planning pour la thérapie de tumeur du foie par ultrasons haute intensité ». Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00497749.

Texte intégral
Résumé :
Dans le contexte général des thérapies minimalement invasives, les travaux de cette thèse portent sur le planning d'une thérapie interstitielle de tumeurs du foie par ultrasons haute intensité. Dans un premier temps, une caractérisation des structures anatomiques hépatiques à partir de données scanner X est proposée selon deux méthodes de segmentation basée sur le graph cut : l'une semi-interactive et rapide pour extraire le foie et les éventuelles tumeurs ; et l'autre automatique et spécifique à la segmentation de la vascularisation hépatique par l'introduction d'un a priori local de forme estimé à partir de moments géométriques 3D. La seconde partie de cette étude est consacrée à la modélisation des effets de la thérapie sur les tissus. Le modèle proposé offre la possibilité de simuler différents types de sonde composée d'une matrice d'éléments contrôlables en phase et intensité. La description de la vascularisation locale dans le milieu peut également être intégrée dans le modèle. Les travaux et résultats obtenus portent sur trois aspects et/ou applications de ce modèle : 1) une méthode pour accélérer la résolution de la BHTE sous certaines hypothèses, 2) des résultats préliminaires de modélisation d'une sonde 64 éléments à focalisation dynamique et 3) le design géométrique d'une sonde endocavitaire 256 éléments.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Roth, Jean-Marc. « Réalisation d'un analyseur optique multi et monocanal associé à une caméra à balayage de fente : application à la métrologie d'impulsions lumineuses à l'échelle de la picoseconde et de très faible intensité ». Université Louis Pasteur (Strasbourg) (1971-2008), 1985. http://www.theses.fr/1985STR10004.

Texte intégral
Résumé :
Etude et réalisation d'un système électronique comprenant un tube de télévision à bas niveau de lumière (nocticon) pour la numérisation d'images en provenance d'une caméra à balayage de fente. Etude des performances (sensibilité, rapport signal à bruit), comparaison avec un analyseur multicanaux utilisant un réseau linéaire de photodiodes. Application à la mesure de la durée et de l'amplitute d'impulsions lumineuses brèves. Description d'une expérience monocanale mettant en oeuvre une ligne à retard variable asservie commandée par micro-ordinateur.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Liu, Siyang. « Efficient machine learning techniques for indoor localization in wireless communication systems ». Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPAST188.

Texte intégral
Résumé :
Avec le développement rapide de l'Internet des objets (IoT), le besoin de services de localisation en intérieur, tels que la gestion des actifs, la navigation et le suivi, a également augmenté au fil du temps. Pour la localisation indoor, les systèmes de navigation par satellite tels que le GPS ont un usage limité par l'absence de visibilité directe avec les satellites.Diverses solutions ont été proposées pour la localisation en intérieur, telles que la trilatération, la triangulation et la navigation à l'estime, mais leurs performances sont limitées par les conditions du canal intérieur, telles que masquage et l'évanouissement par trajets multiples. En exploitant la correspondance entre les mesures des caractéristiques du signal sans fil et les positions, les méthodes basées sur l'empreinte digitale ont montré qu'elles pouvaient fournir de bonnes performances de localisation avec suffisamment de données. Cependant, la localisation indoor est toujours confrontée à des défis tels que l'évolutivité, le coût et la complexité, la confidentialité, etc.L'objectif de cette thèse est d'améliorer l'efficience de la localisation indoor en utilisant des techniques d'apprentissage automatique. Nous divisons le processus de localisation en deux phases : la phase de cartographie radio hors ligne et la phase de localisation en ligne. Pendant la phase hors ligne, nous introduisons l'analyse des jeux de données comme une étape intermédiaire entre la création des jeux de données et la localisation. Nous proposons deux indicateurs numériques de qualité des jeux de données qui peuvent fournir un retour d'information pour améliorer la carte radio. De plus, l'extraction de caractéristiques et le traitement des données à l'aide d'outils d'apprentissage automatique sont intégrés dans un but d'efficience, en réduisant la taille des données et la complexité de calcul, tout en améliorant les performances de localisation. Pour être plus précis, nous proposons une méthode de cartographie radio basée sur les k-means qui peut réduire le nombre d'empreintes de plus de 90 % sans perdre d'informations utiles dans la carte radio ni dégrader les performances de localisation. En explorant la nature hiérarchique des grands ensembles de données, nous proposons une méthode d'extraction de caractéristiques hiérarchiques qui peut réduire davantage la complexité de la localisation sans en compromettre les performances.Pour la phase de localisation en ligne, nous explorons à la fois l'apprentissage automatique traditionnel et l'apprentissage profond. Nous présentons d'abord plusieurs méthodes traditionnelles d'apprentissage automatique et comparons les performances de localisation sur des ensembles de données publiques. Nous cherchons à améliorer les performances de localisation des méthodes traditionnelles.Pour faire face aux problèmes de confidentialité et de complexité, nous introduisons un cadre d'apprentissage fédéré pour le problème de la localisation indoor. Dans ce cadre, les clients partagent uniquement leurs modèles locaux avec le serveur central au lieu des données d'empreintes radios. Nous comparons d'abord les performances de l'apprentissage fédéré et centralisé. Ensuite, nous étudions l'impact du nombre de clients et de la taille des données locales. Toujours dans un objectif d'efficience, afin d'économiser les ressources, nous cherchons à réduire le coût de communication pendant le processus d'apprentissage. Nous évaluons différentes techniques, notamment la sélection des clients, l'accumulation du gradient et la compression du modèle. Une méthode de compression efficace est proposée pour compresser les modèles locaux, ce qui permet de réduire le coût de communication de la liaison montante de 91,5 % sans compromettre les performances de localisation. Enfin, nous considérons des limites sur la capacité des liens montants et évaluons différentes stratégies de compression
With rapid development of Internet of Things (IoT), the need of indoor location-based services such as asset management, navigation and tracking has also grown overtime. For indoor localization, navigation satellite systems such as GPS has limited usage since a direct line-of-sight to satellites is unavailable.Various solutions have been proposed for indoor localization such as trilateration, triangulation, dead reckoning, but their performance is limited by indoor channel conditions, such as shadowing and multipath fading. By exploiting the mapping between wireless signal feature measurements and positions, fingerprinting based methods have shown the potential to provide good localization performance with sufficient data. However, indoor localization still faces challenges like scalability, cost and complexity, privacy, etc.The focus of this thesis is to improve efficiency of indoor localization using machine learning techniques. We divide the localization process into two phases: offline radio mapping phase and online localization phase. During the offline phase, we introduce dataset analysis as an intermediate step between dataset creation and localization. We propose two numerical dataset quality indicators which can provide feedback to improve the radio map. Moreover, feature extraction and dataset processing using machine learning tools are integrated to improve efficiency by reducing the data size and computation complexity while improving localization performance. We propose a k-means based radio mapping method which can reduce the number of fingerprints by over % without losing useful information in the radio map or degrading localization performance. By exploring the hierarchical nature of large datasets, we propose a hierarchical feature extraction method which can further reduce localization complexity without compromising localization performance.For the online localization phase, we explore both traditional machine learning and deep learning. We first introduce several traditional machine learning methods and compare the localization performance on public datasets. We aim to improve localization performance of traditional methods.To cope with privacy and complexity issue, we introduce federated learning framework for indoor localization problem. In this framework, the clients share only their local models to the central server instead of the fingerprinting data. We first compare the performance with federated and centralized learning. Then, we further study the impact on different client numbers and local data size. To reduce communication cost during the training process, we evaluate different measures including client selection, gradient accumulation and model compression. An efficient compression method is proposed to compress local models which can reduce the uplink communication cost by 91.5% without compromising localization performance. At last, we consider a limit on uplink capacity and evaluate different compression strategies
Styles APA, Harvard, Vancouver, ISO, etc.
6

Bildea, Ana. « Link Quality in Wireless Sensor Networks ». Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM054/document.

Texte intégral
Résumé :
L'objectif de la thèse est d'étudier la variation temporelle de la qualité des liens dans les réseaux de capteurs sans fil à grande échelle, de concevoir des estimateurs permettant la différenciation, à court terme et long terme, entre liens de qualité hétérogène. Tout d'abord, nous étudions les caractéristiques de deux paramètres de la couche physique: RSSI (l'indicateur de puissance du signal reçu) et LQI (l'indicateur de la qualité de liaison) sur SensLab, une plateforme expérimentale de réseau de capteurs à grande échelle situé à l'intérieur de bâtiments. Nous observons que le RSSI et le LQI permettent de discriminer des liens de différentes qualités. Ensuite, pour obtenir un estimateur de PRR, nous avons approximé le diagramme de dispersion de la moyenne et de l'écart-type du LQI et RSSI par une fonction Fermi-Dirac. La fonction nous permet de trouver le PRR à partir d'un niveau donné de LQI. Nous avons évalué l'estimateur en calculant le PRR sur des fenêtres de tailles variables et en le comparant aux valeurs obtenues avec l'estimateur. Par ailleurs, nous montrons en utilisant le modèle de Gilbert-Elliot (chaîne de Markov à deux états) que la corrélation des pertes de paquets dépend de la catégorie de lien. Le modèle permet de distinguer avec précision les différentes qualités des liens, en se basant sur les probabilités de transition dérivées de la moyenne et de l'écart-type du LQI. Enfin, nous proposons un modèle de routage basé sur la qualité de lien déduite de la fonction de Fermi-Dirac approximant le PRR et du modèle Markov Gilbert-Elliot à deux états. Notre modèle est capable de distinguer avec précision les différentes catégories de liens ainsi que les liens fortement variables
The goal of the thesis is to investigate the issues related to the temporal link quality variation in large scale WSN environments, to design energy efficient link quality estimators able to distinguish among links with different quality on a short and a long term. First, we investigate the characteristics of two physical layer metrics: RSSI (Received Signal Strength Indication) and LQI (Link Quality Indication) on SensLAB, an indoor large scale wireless sensor network testbed. We observe that RSSI and LQI have distinct values that can discriminate the quality of links. Second, to obtain an estimator of PRR, we have fitted a Fermi-Dirac function to the scatter diagram of the average and standard variation of LQI and RSSI. The function enables us to find PRR for a given level of LQI. We evaluate the estimator by computing PRR over a varying size window of transmissions and comparing with the estimator. Furthermore, we show using the Gilbert-Elliot two-state Markov model that the correlation of packet losses and successful receptions depend on the link category. The model allows to accurately distinguish among strongly varying intermediate links based on transition probabilities derived from the average and the standard variation of LQI. Finally, we propose a link quality routing model driven from the F-D fitting functions and the Markov model able to discriminate accurately link categories as well as high variable links
Styles APA, Harvard, Vancouver, ISO, etc.
7

Abdmouleh, Ahmed. « Codes correcteurs d'erreurs NB-LDPC associés aux modulations d'ordre élevé ». Thesis, Lorient, 2017. http://www.theses.fr/2017LORIS452/document.

Texte intégral
Résumé :
Cette thèse est consacrée à l'analyse de l'association de codes LDPC non-binaires (LDPC-NB) à des modulations d’ordre élevé. Cette association vise à améliorer l’efficacité spectrale pour les futurs systèmes de communication sans fil. Notre approche a consisté à tirer au maximum profit de l'association directe des symboles d’un code LDPC-NB sur un corps de Galois avec une constellation de même cardinalité. Notre première contribution concerne la diversité spatiale obtenue dans un canal de Rayleigh avec et sans effacement en faisant subir une rotation à la constellation. Nous proposons d’utiliser l'information mutuelle comme paramètre d’optimisation de l’angle de rotation, et ce pour les modulations de type « BICM » et les modulations codées. Cette étude permet de mettre en évidence les avantages de la modulation codée par rapport à la modulation BICM de l’état de l’art. Par simulation de Monte-Carlo, nous montrons que les gains de codage théoriques se retrouvent dans les systèmes pratiques. Notre deuxième contribution consiste à concevoir conjointement l'étiquetage des points de constellation et le choix des coefficients d'une équation de parité en fonction de la distance euclidienne, et non plus de la distance de Hamming. Une méthode d’optimisation est proposée. Les codes ainsi construits offrent des gains de performance de 0.2 dB et ce, sans ajout de complexité
This thesis is devoted to the analysis of the association of non-binary LDPC codes (NB-LDPC) with high-order modulations. This association aims to improve the spectral efficiency of future wireless communication systems. Our approach tries to take maximum advantage of the straight association between NB-LDPC codes over a Galois Field with modulation constellations of the same cardinality. We first investigate the optimization of the signal space diversity technique obtained with the Rayleigh channel (with and without erasure) thanks to the rotation of the constellation. To optimize the rotation angle, the mutual information analysis is performed for both coded modulation (CM) and bit-interleaved coded modulation (BICM) schemes. The study shows the advantages of coded modulations over the state-of-the-art BCIM modulations. Using Monte Carlo simulation, we show that the theoretical gains translate into actual gains in practical systems. In the second part of the thesis, we propose to perform a joint optimization of constellation labeling and parity-check coefficient choice, based on the Euclidian distance instead of the Hamming distance. An optimization method is proposed. Using the optimized matrices, a gain of 0.2 dB in performance is obtained with no additional complexity
Styles APA, Harvard, Vancouver, ISO, etc.
8

Njima, Wafa. « Méthodes de localisation de capteurs dans le contexte de l'Internet des Objets ». Electronic Thesis or Diss., Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1264.

Texte intégral
Résumé :
Grace à l'émergence croissante de l'Internet des Objets et à l'importance de l'information de position dans ce contexte, lalocalisation attire de plus en plus d'attention dans la communauté des chercheurs. La localisation en extérieur est assuréepar le GPS qui n'est pas adapté aux environnements intérieurs. Plusieurs techniques de localisation en intérieur existent,mais il n'existe pas encore un standard. L'objectif de cette thèse est d'améliorer les techniques de localisation existantestout en maintenant un niveau de localisation satisfaisant avec une faible complexité de calcul. Afin de surmonter lesinconvénients des techniques de localisation existantes, nous avons proposé des approches alternatives. Dans un contexte de communication distribuée, la trilatération a été combinée avec un processus d'optimisation qui vise à compléter la matrice de distances inter nœuds à partir des données partiellement connues en se basant sur des algorithmes d’optimisation avancés. Ainsi une solution de localisation pour une architecture distribuée a été proposée. Pour une architecture centralisée utilisant la technique du fingerprinting contenant les puissances reçues, plusieurs stratégies ont été étudiées. Une étude comparative entre les différentes métriques d'évaluation de similarité a été développée. Cette étude a été suivie par le développement d'un modèle linéaire entre le fingerprint de test et les fingerprints d'une base de données générant une relation mathématique qui relie les puissances du signal reçues par un objet à ses coordonnées. Cela aide à diminuer la complexité de calcul en ligne et ainsi mieux s'adapter à un système temps réel. Enfin, la relation entre les puissances reçues et les coordonnées a été confiée à un réseau de neurones convolutif (CNN) qui traite le problème de localisation comme un problème de classification d'images radio. Les performances de toutes les approches proposées ont été évaluées et discutées. Ces résultats montrent bien l'amélioration des performances des techniques basiques en termes de précision de localisation et de complexité
With the growing emergence of the Internet of Things and the importance of position information in this context, localization is attracting more and more attention in the researchers' community. The outdoor location is provided by GPS which is not suitable for indoors environments. Several indoor localization techniques exist, but there is not yet a standard.Existing methods are mainly based on trilateration or fingerprinting. Trilateration is a geometric method that exploits thedistances between an object and reference points to locate it. This method only works when we have at least 3 access points detected and is strongly affected by multi paths. In order to overcome these disadvantages, the fingerprinting methodcompares the fingerprint associated to the object to be located to a fingerprints' database constructed on offline. The estimated position is a combination of the selected training positions. This method is of great interest. However, it requiressignificant computing and storage capabilities. The aim of this thesis is to improve the existing localization techniqueswhile maintaining a satisfying localization accuracy with low computational complexity. In order to overcome the disadvantages of these two classes of localization techniques, we propose alternative approaches. For trilateration, it hasbeen combined with an optimization process that aims at completing the inter-node distance matrix from partially knowndata. Advanced optimization algorithms have been used in developing the mathematical equation corresponding to eachone. Using this method, we came up with a localization solution for a distributed IoT architecture. As for fingerprinting, we have exploited it to develop localization systems for a centralized IoT architecture. A comparative study between different metrics of similarity evaluation is conducted. This study was followed by the development of a linear model generating a mathematical relation that links the powers of the signal received by an object to its coordinates. This helps to reduce the online complexity of and adapts our system to real time. This is also ensured by the development of a CNN model which deal with the localization problem as radio images classification problem. The performances of all proposed approaches are evaluated and discussed. These results show the improvement of the performances of basic techniques in terms of localization accuracy and complexity
Styles APA, Harvard, Vancouver, ISO, etc.

Rapports d'organisations sur le sujet "Intensité du signal reçu"

1

African Open Science Platform Part 1 : Landscape Study. Academy of Science of South Africa (ASSAf), 2019. http://dx.doi.org/10.17159/assaf.2019/0047.

Texte intégral
Résumé :
This report maps the African landscape of Open Science – with a focus on Open Data as a sub-set of Open Science. Data to inform the landscape study were collected through a variety of methods, including surveys, desk research, engagement with a community of practice, networking with stakeholders, participation in conferences, case study presentations, and workshops hosted. Although the majority of African countries (35 of 54) demonstrates commitment to science through its investment in research and development (R&D), academies of science, ministries of science and technology, policies, recognition of research, and participation in the Science Granting Councils Initiative (SGCI), the following countries demonstrate the highest commitment and political willingness to invest in science: Botswana, Ethiopia, Kenya, Senegal, South Africa, Tanzania, and Uganda. In addition to existing policies in Science, Technology and Innovation (STI), the following countries have made progress towards Open Data policies: Botswana, Kenya, Madagascar, Mauritius, South Africa and Uganda. Only two African countries (Kenya and South Africa) at this stage contribute 0.8% of its GDP (Gross Domestic Product) to R&D (Research and Development), which is the closest to the AU’s (African Union’s) suggested 1%. Countries such as Lesotho and Madagascar ranked as 0%, while the R&D expenditure for 24 African countries is unknown. In addition to this, science globally has become fully dependent on stable ICT (Information and Communication Technologies) infrastructure, which includes connectivity/bandwidth, high performance computing facilities and data services. This is especially applicable since countries globally are finding themselves in the midst of the 4th Industrial Revolution (4IR), which is not only “about” data, but which “is” data. According to an article1 by Alan Marcus (2015) (Senior Director, Head of Information Technology and Telecommunications Industries, World Economic Forum), “At its core, data represents a post-industrial opportunity. Its uses have unprecedented complexity, velocity and global reach. As digital communications become ubiquitous, data will rule in a world where nearly everyone and everything is connected in real time. That will require a highly reliable, secure and available infrastructure at its core, and innovation at the edge.” Every industry is affected as part of this revolution – also science. An important component of the digital transformation is “trust” – people must be able to trust that governments and all other industries (including the science sector), adequately handle and protect their data. This requires accountability on a global level, and digital industries must embrace the change and go for a higher standard of protection. “This will reassure consumers and citizens, benefitting the whole digital economy”, says Marcus. A stable and secure information and communication technologies (ICT) infrastructure – currently provided by the National Research and Education Networks (NRENs) – is key to advance collaboration in science. The AfricaConnect2 project (AfricaConnect (2012–2014) and AfricaConnect2 (2016–2018)) through establishing connectivity between National Research and Education Networks (NRENs), is planning to roll out AfricaConnect3 by the end of 2019. The concern however is that selected African governments (with the exception of a few countries such as South Africa, Mozambique, Ethiopia and others) have low awareness of the impact the Internet has today on all societal levels, how much ICT (and the 4th Industrial Revolution) have affected research, and the added value an NREN can bring to higher education and research in addressing the respective needs, which is far more complex than simply providing connectivity. Apart from more commitment and investment in R&D, African governments – to become and remain part of the 4th Industrial Revolution – have no option other than to acknowledge and commit to the role NRENs play in advancing science towards addressing the SDG (Sustainable Development Goals). For successful collaboration and direction, it is fundamental that policies within one country are aligned with one another. Alignment on continental level is crucial for the future Pan-African African Open Science Platform to be successful. Both the HIPSSA ((Harmonization of ICT Policies in Sub-Saharan Africa)3 project and WATRA (the West Africa Telecommunications Regulators Assembly)4, have made progress towards the regulation of the telecom sector, and in particular of bottlenecks which curb the development of competition among ISPs. A study under HIPSSA identified potential bottlenecks in access at an affordable price to the international capacity of submarine cables and suggested means and tools used by regulators to remedy them. Work on the recommended measures and making them operational continues in collaboration with WATRA. In addition to sufficient bandwidth and connectivity, high-performance computing facilities and services in support of data sharing are also required. The South African National Integrated Cyberinfrastructure System5 (NICIS) has made great progress in planning and setting up a cyberinfrastructure ecosystem in support of collaborative science and data sharing. The regional Southern African Development Community6 (SADC) Cyber-infrastructure Framework provides a valuable roadmap towards high-speed Internet, developing human capacity and skills in ICT technologies, high- performance computing and more. The following countries have been identified as having high-performance computing facilities, some as a result of the Square Kilometre Array7 (SKA) partnership: Botswana, Ghana, Kenya, Madagascar, Mozambique, Mauritius, Namibia, South Africa, Tunisia, and Zambia. More and more NRENs – especially the Level 6 NRENs 8 (Algeria, Egypt, Kenya, South Africa, and recently Zambia) – are exploring offering additional services; also in support of data sharing and transfer. The following NRENs already allow for running data-intensive applications and sharing of high-end computing assets, bio-modelling and computation on high-performance/ supercomputers: KENET (Kenya), TENET (South Africa), RENU (Uganda), ZAMREN (Zambia), EUN (Egypt) and ARN (Algeria). Fifteen higher education training institutions from eight African countries (Botswana, Benin, Kenya, Nigeria, Rwanda, South Africa, Sudan, and Tanzania) have been identified as offering formal courses on data science. In addition to formal degrees, a number of international short courses have been developed and free international online courses are also available as an option to build capacity and integrate as part of curricula. The small number of higher education or research intensive institutions offering data science is however insufficient, and there is a desperate need for more training in data science. The CODATA-RDA Schools of Research Data Science aim at addressing the continental need for foundational data skills across all disciplines, along with training conducted by The Carpentries 9 programme (specifically Data Carpentry 10 ). Thus far, CODATA-RDA schools in collaboration with AOSP, integrating content from Data Carpentry, were presented in Rwanda (in 2018), and during17-29 June 2019, in Ethiopia. Awareness regarding Open Science (including Open Data) is evident through the 12 Open Science-related Open Access/Open Data/Open Science declarations and agreements endorsed or signed by African governments; 200 Open Access journals from Africa registered on the Directory of Open Access Journals (DOAJ); 174 Open Access institutional research repositories registered on openDOAR (Directory of Open Access Repositories); 33 Open Access/Open Science policies registered on ROARMAP (Registry of Open Access Repository Mandates and Policies); 24 data repositories registered with the Registry of Data Repositories (re3data.org) (although the pilot project identified 66 research data repositories); and one data repository assigned the CoreTrustSeal. Although this is a start, far more needs to be done to align African data curation and research practices with global standards. Funding to conduct research remains a challenge. African researchers mostly fund their own research, and there are little incentives for them to make their research and accompanying data sets openly accessible. Funding and peer recognition, along with an enabling research environment conducive for research, are regarded as major incentives. The landscape report concludes with a number of concerns towards sharing research data openly, as well as challenges in terms of Open Data policy, ICT infrastructure supportive of data sharing, capacity building, lack of skills, and the need for incentives. Although great progress has been made in terms of Open Science and Open Data practices, more awareness needs to be created and further advocacy efforts are required for buy-in from African governments. A federated African Open Science Platform (AOSP) will not only encourage more collaboration among researchers in addressing the SDGs, but it will also benefit the many stakeholders identified as part of the pilot phase. The time is now, for governments in Africa, to acknowledge the important role of science in general, but specifically Open Science and Open Data, through developing and aligning the relevant policies, investing in an ICT infrastructure conducive for data sharing through committing funding to making NRENs financially sustainable, incentivising open research practices by scientists, and creating opportunities for more scientists and stakeholders across all disciplines to be trained in data management.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie