Literatura científica selecionada sobre o tema "Canaux de fondu sans fil"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Consulte a lista de atuais artigos, livros, teses, anais de congressos e outras fontes científicas relevantes para o tema "Canaux de fondu sans fil".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Artigos de revistas sobre o assunto "Canaux de fondu sans fil"

1

Gow, Gordon A. "Public Safety Telecommunications in Canada: Regulatory Intervention in the Development of Wireless E9-1-1". Canadian Journal of Communication 30, n.º 1 (24 de janeiro de 2005). http://dx.doi.org/10.22230/cjc.2005v30n1a1511.

Texto completo da fonte
Resumo:
Abstract: Wireless E9-1-1 is an interesting case in the capacity of industry voluntary efforts to meet public interest obligations, in part because the CRTC has largely forborne from regulating the wireless sector under current competition policy. Results to date are mixed: despite successful technical trials in the early stages, deployment of the service was slow and uneven, and proceedings came to be plagued by uncertainty and fractious debate between stakeholder groups. Evidence suggests that selective regulatory intervention in the wireless sector may be necessary in certain cases to ensure that public interest obligations are achieved in a timely manner. This paper examines wireless E9-1-1 as a keystone standardization initiative, drawing upon a layered policy model and the concept of interconnection space to structure its analysis of the evidence. Résumé : Le service 9-1-1 évolué (E9-1-1 sans fil) est un cas intéressant car il nous permet d’évaluer la volonté de l’industrie de rencontrer ses obligations de service public, en partie parce que le CRTC, suivant sa politique actuelle qui consiste à encourager la concurrence, s’est généralement abstenu de réglementer la communication sans fil. Les résultats à ce jour sont mitigés : malgré des essais techniques réussis lors des premières étapes, la diffusion du service s’est avérée lente et inégale, et des incertitudes et débats houleux entre les groupes impliqués ont marqué les démarches initiales. Il y a lieu de penser qu’une réglementation limitée du secteur sans fil pourrait s’avérer nécessaire dans certains cas pour que l’industrie puisse rencontrer ses obligations de servir l’intérêt public sans prendre trop de retard. Cet article examine donc le service E9-1-1 sans fil, l’envisageant comme une initiative clé pour la standardisation, et se fonde sur un modèle de politiques superposées et sur un concept d’« espace d’interconnexions » pour structurer son analyse de données.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Lapierre, Nicole. "Mémoire". Anthropen, 2017. http://dx.doi.org/10.17184/eac.anthropen.055.

Texto completo da fonte
Resumo:
La mémoire ne fait pas partie des notions classiques de l’anthropologie. Dans l’étude des traditions, des mythes, des croyances ou des rituels, elle est restée longtemps non problématisée. Incluse dans les mécanismes de reproduction de la culture, implicite dans la transmission des manières de faire et de penser, elle n’était que le support indistinct d’une permanence. Pourtant, il n’y a pas plus de sociétés sans mémoire qu’il n’y a de sociétés sans histoire. Ce constat s’est finalement imposé. A partir des années 1970, la mémoire est devenue un objet d’enquête et de réflexion pour les anthropologues (Candau 1996, 1998). La prise en compte grandissante des phénomènes d’interaction ou de domination culturelles les a conduits à analyser la façon dont pratiques et croyances se transmettent, se transforment ou se dégradent dans les cultures et les sociétés. Ainsi, Roger Bastide, s’intéressant à « la survie des religions africaines dans le Nouveau Monde » (Bastide 1970), a mobilisé des concepts empruntés à Claude Lévi-Strauss et à Maurice Halbwachs et proposé la notion de « bricolage de la mémoire collective ». Celui-ci permettant de remplir les manques par des images nouvelles afin de réparer le scénario du mythe ou du rituel. Beaucoup d’autres auteurs se sont intéressés depuis à cette plasticité de la mémoire, susceptible d’être réorganisée, voire recomposée, en prenant directement pour objet et sujet de réflexion les vecteurs et canaux des transmissions culturelles. Jack Goody, étudiant la circulation orale du Bagré chez les LoDagaa du nord-ouest du Ghana, a constaté que ce récit de près de 12 000 vers, réinterprété au fil du temps, varie selon le lieu, le moment et le récitant. Une variation, alliant continuité et changement, qu’il attribue à la flexibilité de la culture orale, par rapport à une plus grande fixité de la culture écrite (Goody 1977). Dans une approche différente, Carlo Severi a montré comment le recours à l’image pouvait être support et outil de la mémoire rituelle dans des sociétés « sans écriture », (Severi 2007). Et Monder Kilani a observé que dans la société oasienne, la référence à une trace écrite vient conforter une construction généalogique et mémorielle modulée selon les enjeux du présent (Kilani 1992). On retrouve là l’affirmation première d’Halbwachs selon laquelle « la mémoire collective » est toujours sélective et « ne retient du passé que ce qui en est encore vivant ou capable de vivre dans la conscience du groupe qui l’entretient. » (Halbwachs [1950] 1969 : 70). Toutefois, la multiplicité des temporalités dans lesquelles s’inscrivent désormais les sociétés altère les processus de transmissions eux-mêmes. Ce qui oriente les recherches vers la manière dont leurs membres perçoivent et organisent leur rapport au passé. Les ethnologues sont fréquemment confrontés à ce point de bascule où, à un moment donné, pour les membres d’un groupe ou d’une communauté, le passé, à la fois encore disponible et déjà hors de portée, devient un bien commun fragilisé. Ils se trouvent alors sollicités pour en être les conservateurs ou les passeurs. Jack Goody raconte ainsi qu’en consignant par écrit une version du Bagré, il a enfreint le secret de l’initiation, mais il a également répondu au souhait de certains LoDagaa qui considéraient cette récitation comme un fonds culturel à préserver. Il se faisait, en somme, le scribe d’une mémoire orale menacée (Goody 1996 : 71). Les sollicitations sont d’autant plus vives que la mémoire est devenue un enjeu d’affirmation ou de revendication pour les populations concernées. Partout, les mobilisations et les célébrations du passé prolifèrent. Dans ces conditions, où la curiosité des anthropologues, confrontés à l’impermanence des mondes, rencontre la demande de mémoire des peuples, les travaux se sont développés dans plusieurs directions. Lieux et milieux de mémoire, commémorations, patrimonialisation et muséification, demandes de reconnaissance des préjudices anciens et conflits mémoriels sont autant de nouveaux objets pour une anthropologie de la mémoire attentive à la façon dont les groupes humains, de diverses manières, sont à la fois héritiers et inventeurs de leur passé. La notion de patrimoine, d’invention occidentale (Choay 1999), connaît une extension considérable, du local au planétaire et soulève la question de la pluralité des expériences et des récits. Dans la Lorraine sidérurgique, par exemple, la transformation d’usines désaffectées en écomusées et en « lieux de mémoire », a fait l’objet de luttes de représentation auxquelles participaient, aux côtés de divers acteurs économiques, sociaux, politiques et artistiques, une partie de ceux qui travaillaient là auparavant (Tornatore 2010). En Nouvelle Calédonie, de même, un projet muséographique lié à l’édification du Centre culturel Jean-Marie Tjibaou, a suscité un débat entre représentants de l’État français, institutionnels kanak, acteurs du monde international de l’art, sur le sens de ce qui devait être exposé. Des discussions où affleuraient les tensions d’un passé très présent, celui des luttes indépendantistes (Bensa 2006: 199-215). A une autre échelle, les revendications des peuples autochtones, qui ont obtenu en 2007 une déclaration de l’ONU reconnaissant leurs droits, suscitent des controverses sur la définition de leur patrimoine, la reconnaissance de leur héritage, la « propriété » de leur territoire et la défense de leurs traditions, y compris quand celles-ci sont entièrement reconstruites (Bellier 2011). Les conflits passés, surtout quand ils sont restés occultés, laissent des traces dans le présent, sous la forme de mémoires en conflits (Baussant 2007). Les demandes de reconnaissance, de justice, d’établissement des responsabilités, s’opposent alors aux silences, aux impunités ou aux amnisties. Les divers protagonistes, témoins, acteurs, ou leurs descendants s’affrontent sur les représentations et interprétations divergentes des évènements. Des milieux de mémoire se constituent, des associations interviennent dans l’espace public, comme en Argentine, à propos des « disparus » sous la dictature (Crenzel 2010), mais aussi dans de nombreux pays où une lecture plurielle du passé n’a pas réussi à se faire accepter. L’héritage des tragédies collectives constitue une ressource identitaire particulièrement forte (Candau 1998). Et la mémoire de la Shoah en est devenu « le cadre référentiel » (Lapierre 2007). Des mouvements luttent pour obtenir la reconnaissance, voire la réparation, des crimes du passé, notamment ceux de la traite transatlantique et de l’esclavage. La mémoire qu’ils mobilisent a une dimension stratégique, mais ne s’y réduit pas. Elle est à la fois produit - agrégat de traces, de fragments de récits, de transmissions diffuses sur les souffrances anciennes -, et produite à l’aune des attentes du présent (Chivallon 2011). Ces attentes, elles-mêmes, s’insèrent dans une configuration éthico-politique qui a promu la figure de la victime et redéfini la notion de traumatisme, issue de la clinique, en « traumatisme culturel ». A travers celui-ci, le souvenir des souffrances endurées par les persécutés et les vaincus de l’histoire se ravive et fonde une cause pour des générations ultérieures. Et force est de constater que « la découverte de cette mémoire douloureuse est un fait anthropologique majeur des sociétés contemporaines. » (Fassin et Rechtman 2011: 19). Déployée sur de très nombreux terrains et questionnements, l’anthropologie de la mémoire est donc devenue un ample domaine de recherche. Au point que certains s’inquiètent désormais d’un « memory boom », dans lequel une conception trop extensive de la mémoire tendrait à se confondre avec une continuité de la culture (Berliner 2005). Les anthropologues seraient ainsi d’autant plus saisis par l’engouement mémoriel général qu’ils y retrouveraient le goût des permanences à l’origine de leur discipline. C’est néanmoins omettre qu’un tel engouement naît précisément des ruptures et des oublis
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Auger, Reginald, e Allison Bain. "Anthropologie et archéologie". Anthropen, 2016. http://dx.doi.org/10.17184/eac.anthropen.030.

Texto completo da fonte
Resumo:
Les parcours sinueux qu’ont suivis l’anthropologie et l’archéologie en Amérique du Nord depuis une cinquantaine d’années démontrent des intérêts convergents pour la connaissance et l’explication du comportement humain et cela avec des méthodes de recherche de plus en plus divergentes. L’anthropologie qui a émergé des milieux intellectuels aux États-Unis au XIXe siècle avait pour origine l’intérêt pour la compréhension des populations autochtones de l’Amérique; de cet intérêt pour l’humain, se sont développés des outils pour comprendre le comportement qui se cachait derrière le geste posé. Dès le début, l’anthropologue s’intéressait aux comportements et l’archéologue documentait les traces du geste posé. De cette proximité entre l’anthropologie et l’archéologie qui s’est concrétisée par la création du Bureau of American Ethnology à la fin du XIXe siècle, il était naturel de placer la formation en archéologie au sein de départements d’anthropologie dans les universités aux États-Unis et au Canada. Malgré l’apparence initiale d’un champ unifié et d’un terrain partagé entre l’anthropologie et l’archéologie, la pratique s’est transformée pour devenir tout autre au fil des ans. Au milieu du XXe siècle, l’archéologie commence à remettre en question sa relation avec les interprétations fonctionnalistes des anthropologues (Trigger 2006 : 363-372). La première figure à souligner le problème de l’inéquation entre les résultats de la recherche archéologique et la théorie en anthropologie fut Walter Taylor (1948) dans son livre A Study of Archaeology. Taylor, le relativiste, exposa son penchant pour le particularisme historique dans une approche qu’il identifie comme étant conjonctive; pour ce chercheur iconoclaste, l’historiographie comptait pour beaucoup. L’approche conjonctive consistait à établir des corrélations entre différents types de données dans des contextes historiques et culturels spécifiques afin de faire le pont entre des particularités historiques (les collections archéologiques) et des données anthropologiques. La méthodologie qu’il proposait impliquait la vérification d’hypothèses par l’analyse de la composition et de la structure des collections archéologiques. L’objectif central de cette approche visait à mettre de l’avant des études contextuelles détaillées qui permettraient d’adapter des hypothèses générales sur la culture à des données spécifiques. Dans sa formulation de l’approche conjonctive en archéologie et la vérification d’hypothèses, Taylor reconnaissait qu’une réflexion critique était nécessaire puisque l'archéologue travaillait dans le présent. En dépit de la richesse des collections archéologiques et constatant le danger qui planait sur l’archéologie si nous avions continué à publier des listes d’attributs de nos objets au lieu d’interpréter la culture matérielle comme étant la trace du comportement humain, dans un geste de médiation entre l’anthropologie et l’archéologie, Binford (1962) publiait son article portant le titre Archaeology as Anthropology. Comme il le signale dans son introduction son article qui faisait suite à un ouvrage venant d’être publié par Willey et Phillips (1958) où l’on mentionne clairement que l’archéologie américaine « c’est de l’anthropologie ou rien du tout ». Ce geste d’éclat dans une période charnière de l’enseignement de l’archéologie dans les universités nord-américaines allait donner naissance à un nouveau paradigme que l’on appela la New Archaeology aussi connue sous le nom d’archéologie processuelle. Un tel changement de paradigme venait en contradiction avec les pratiques européennes en matière d’archéologie préhistorique, notamment celles de l’École de Bordeaux et de François Bordes, son membre le plus influent, qui avait réussi à imposer sa vision sur le sens de la variabilité des outils en pierre du paléolithique moyen (Bordes 1961; 1984). Dans sa thèse de doctorat intitulée The Bordes-Binford Debate: Transatlantic Interpretive Traditions in Paleolithic Archaeology, Melissa C. Wargo (2009) présente une analyse en profondeur des modes de pensée qui diffèrent entre l’Europe et l’Amérique du Nord. Essentiellement, le raisonnement traditionnel voulait que l’apparition d’une nouvelle culture archéologique (de nouveaux types) puisse signifier la manifestation d’un nouveau groupe de personnes, un groupe ethnique détectable avec les outils de l’archéologie. C’est ce que nous apprenions à la lecture des travaux de François Bordes sur les changements technologiques observés au paléolithique moyen. Lorsque Binford est parvenu à étudier les mêmes collections, il proposa des interprétations toutes autres. Ainsi, alors que pour Bordes, des outils différents représentent des groupes différents; si l’ensemble de l’assemblage ne peut être attribué à un groupe avoisinant, peut-être alors que certains éléments peuvent l’être. Et si de tels parallèles peuvent être établis, l’approche de Bordes a pour corollaire que c’est là le lieu d’origine de la population à l’étude et que nous serions en présence d’une diffusion de traits culturels à partir de la migration d’un groupe ethnique. Pour Binford, la différence dans la composition des assemblages devrait plutôt être interprétée comme étant le résultat d’adaptations; pour ce chercheur, les assemblages archéologiques sont des coffres d’outils adaptés pour une fonction particulière. Nonobstant la grande quantité de statistiques accumulées, Binford, de son propre aveu, admit qu’il fut incapable d’expliquer ce qu’elles signifiaient. En d’autres mots, il avait beaucoup d’information sur le présent mais ne pouvait l’expliquer par manque d’analogie avec le passé. En dépit de ces différences d’opinion, l’utilité de la typologie de Bordes réside dans le fait qu’elle fournissait un langage descriptif; cette typologie a cependant été par la suite rejetée par certains chercheurs qui considéraient que la définition des types de François Bordes était inadéquate parce que trop subjective. Pire encore, Bordes a été accusé d’incorporer dans ses interprétations des hypothèses non vérifiées sur les capacités cognitives des hominidés durant le paléolithique moyen. De nos jours, nos analyses de la technologie visent à remplacer cette approche typologique de Bordes par une méthode s’appuyant sur la combinaison d’attributs dont la description porte davantage sur le comportement. De toute évidence, le débat entre le promoteur de la New Archaeology et la figure de proue de l’archéologie française et son approche taxonomique en pierre a permis de mettre en évidence un malaise profond sur la façon dont le passé devrait être interprété. Ce débat est aussi emblématique de traditions scientifiques différentes entre l’Europe et l’Amérique du Nord. C’est dans ce contexte intellectuel que sont nés des départements d’anthropologie associant l’anthropologie culturelle, l’anthropologie biologique, la linguistique et l’archéologie. Ces quatre champs sont apparus à des moments bien précis de l’histoire des universités nord-américaines mais de nos jours, la réalité de l’anthropologie est devenue beaucoup plus complexe (Bruner 2010). Un étudiant en archéologie peut avoir des besoins de formation en géographie, en histoire, en géologie, en botanique, en biologie, en ethnohistoire, en systèmes d’information géographique, en informatique, etc. alors qu’un étudiant en anthropologie pour atteindre un niveau de compétence élevé pourrait avoir besoin de formation en histoire, en science politique, en sociologie, en art, en littérature, en théorie critique, etc. Malgré que les besoins aient grandement changé depuis la création des départements d’anthropologie, les structures académiques sont demeurées statiques. La protection des départements d’anthropologie dans leur configuration actuelle des quatre champs relève le plus souvent des politiques universitaires. Ainsi, même si les professeurs étaient d’accord qu’il serait intellectuellement plus profitable de scinder ces gros départements, la question de diviser les départements d’anthropologie en unités plus petites qui feraient la promotion de l’interdisciplinarité dans les sciences humaines et sociales n’est pas envisagée dans la plupart des universités nord-américaines (Smith 2011). Au milieu de cette tourmente, se sont développés un certain nombre de départements et de programmes d’archéologie en Amérique du Nord. De là est née une discipline émancipée du joug des structures trop rigides et se donnant un ensemble de méthodes de recherche qui lui étaient propres. La trajectoire conceptuelle empruntée par ceux-ci a permis de remonter au-delà du geste et de la parole en retenant une classe cohérente de concepts explicatifs développés, certes en anthropologie, mais raffinés et adaptés au contact de l’archéologie et d’autres disciplines en sciences humaine et sociales et sciences de la nature. Cette indépendance intellectuelle de l’anthropologie s’est notamment affirmée par des collaborations entre l’archéologie et la philosophie des sciences (Kelly et Hanen 1988; Salmon 1982; Wylie 2002; Wylie et Chapman 2015). La croissance de l’intérêt pour les explications processuelles des données archéologiques chez plusieurs archéologues nord-américains fut motivée par le fait que les néo-évolutionistes en anthropologie mettaient trop l'accent sur les régularités dans les cultures. Les concepts utilisés en archéologie processuelle exerçaient une influence significative sur notre discipline et l’adoption de cette approche théorique était d’autant plus attrayante car les variables proposées se présentaient comme des causes majeures de changements culturels et relativement accessibles à partir des vestiges archéologiques. Cette approche s'intensifia et donna de nouvelles directions aux tendances déjà présentes en archéologie préhistorique. Dans ce changement de paradigme qui donna naissance au courant de la Nouvelle Archéologie en Amérique du Nord et à un moindre degré au Royaume-Uni, l’accent était placé sur la vérification d’hypothèses sur les processus culturels comme outils d’explication du passé. De la position qu’elle occupait comme l’un des quatre sous-champs de l’anthropologie ou encore, de celle de servante de l’histoire, l’archéologie est devenue l’un des plus vastes champs du monde académique (Sabloff 2008 : 28). En plus d’avoir trouvé son ancrage théorique dans les sciences sociales et humaines, l’archéologie, attirée par les techniques et méthodes fraie régulièrement avec les sciences physiques et les sciences de la nature. En se donnant ses propres méthodes de collecte et d’analyse pour l’examen de cultures distinctes et en poursuivant avec des comparaisons interculturelles, la discipline cherchait à mieux comprendre les cultures qui se sont développées à travers le temps et l’espace. Puisque l’objet d’étude de l’archéologie porte sur les traces de groupes humains dans leur environnement naturel et leur univers social, les questions qu’elle se pose sont fondamentales à l’histoire de l’humanité et pour répondre à de telles questions elle s’est dotée de méthodologies d’enquête qui lui sont propres. L’utilisation d’équipements sophistiqués pour déterminer la composition chimique des résidus lipidiques incrustés sur un outil en pierre taillée ou encore, les recherches sur la composition physico-chimique de la pâte d’une céramique sont des techniques visant à répondre à des questions d’ordre anthropologique. Le quand et le comment du passé sont relativement faciles à identifier alors que pour découvrir le pourquoi l’archéologue fait souvent appel à l’analogie ethnographique, une méthodologie issue de l’insatisfaction des archéologues à l’endroit des travaux en anthropologie culturelle (David et Kramer 2001). Une autre méthodologie est celle de l’archéologie expérimentale qui s’intéresse à la fabrication et à l’usage des outils (Tringham 1978), méthode similaires à celle de l’ethnoarchéologie. L’expérimentation à partir d’outils fabriqués par le chercheur et les banques de données provenant d’expérimentations contrôlées servent alors d’éléments de comparaison pour interpréter la forme des assemblages archéologiques (Chabot et al. 2014) est au centre de la méthode préconissée. Le développement de l’ethnoarchéologie durant les années 1970 aurait inspiré Binford (1981) lorsqu’il mit de l’avant l’utilisation de théories de niveau intermédiaire pour établir un lien entre ses données archéologiques et les théories de niveau supérieur sur le comportement. Sa décision semble avoir reposé sur les développements de l’approche ethnoarchéologique et ses propres terrains ethnoarchéologiques chez les Nunamiut de l’Alaska (Binford 1978). D’autres orientations théoriques ont vu le jour au cours des années 1960–1970 et ont fait la distinction entre différentes approches matérialistes par rapport à des schémas évolutionnistes antérieurs. Par exemple, Leslie White (1975) adopta une forme de déterminisme technologique très étroit qui reflétait une croyance en la technologie comme source de progrès social. Julian Steward (1955) envisagea un déterminisme écologique moins restrictif alors que Marvin Harris (1968) y voyait un déterminisme économique encore plus large. Pour ces quelques positivistes le rôle que l’archéologie se devait de jouer était d’expliquer la culture matérielle du passé. Quant à l’archéologue Lewis Binford (1987), il soutenait que l’étude des relations entre le comportement humain et la culture matérielle ne devrait pas être le rôle central de l’archéologie puisque selon lui, les données ne contiendraient aucune information directe sur les relations entre le comportement humain et la culture matérielle. Dorénavant, les données archéologiques se devaient d’être comprises par elles-mêmes, sans avoir recours à des analogies ethnographiques. Cette dernière approche voulait clairement établir de la distance entre l’archéologie, l’anthropologie culturelle, l’ethnologie et peut-être les sciences sociales en général ; son mérite était peut-être, justement, d’éviter les réductionnismes et les analogies rapides entre explications anthropologiques et assemblages archéologiques. Dans la même veine, d’autres remises en question sont apparues durant les années 1980 avec les travaux d’Ian Hodder (1982; 1985) sur la validité des certitudes positivistes qui avaient été le fonds théorique et empirique des adeptes de la New Archaeology. Depuis cette réflexion sur l’essence même de l’archéologie, Hodder a reconnu qu’une position critique est fondamentale face à l’objet d’étude; naquit alors le courant théorique post-processuel en archéologie. Dans son cheminement pour découvrir la signification des vestiges qu’elle étudie, l’archéologie post-processuelle s’appuie sur des études détaillées permettant d’adapter des hypothèses générales sur la culture à des données spécifiques en exploitant la diversité des sources; cette direction du courant post-processuel en archéologie porte le nom d’archéologie contextuelle. Comme tout changement de paradigme apporte avec lui son lot de détracteurs, l’archéologie post-processuelle a été immédiatement accusée d’une trop grande subjectivité interprétative voire, de déconstructionisme. Les autres orientations placées sous le label archéologie post-processuelle incluent : le structuralisme, le néo-marxisme, l’archéologie cognitive, la phénoménologie, et d’autres encore Ainsi l’individu, l’agent ou l’acteur et son intentionnalité devrait être au centre des interprétations dans la théorie post-processuelle. Nous pouvons conclure que l’examen de la relation entre l’anthropologie et l’archéologie en Amérique du Nord a permis de constater que, depuis ses débuts, l’archéologie dans cette région du monde a vécu une liaison relativement tumultueuse avec l’anthropologie. Cette condition, souvent problématique, a vu naître, au Canada d’abord, des groupuscules d’archéologues avec des intérêts divergents qui se sont distanciés des paradigmes qui dominaient les départements d’anthropologie pour former des départements d’archéologie ou des programmes d’archéologie autonomes des programmes d’anthropologie. Sur les chemins empruntés ces nouveaux départements sont entrés en relation avec les départements de sciences naturelles, notamment, la géographie, avec laquelle les archéologues ont partagé un ensemble de concepts et de méthodes. Il en a résulté un enseignement de l’archéologie nettement interdisciplinaire et faisant appel à des méthodes quantitatives pour comprendre la culture matérielle dans son environnement naturel et expliquer son milieu culturel à partir de concepts empruntés aussi bien aux sciences humaines qu’aux sciences naturelles.
Estilos ABNT, Harvard, Vancouver, APA, etc.

Teses / dissertações sobre o assunto "Canaux de fondu sans fil"

1

Zhao, Hui. "High performance cache-aided downlink systems : novel algorithms and analysis". Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS366.

Texto completo da fonte
Resumo:
La thèse aborde d'abord le pire goulot d'étranglement de la mise en cache codée sans fil, qui est connue pour diminuer considérablement les gains de multidiffusion assistée par cache. Nous présentons un nouveau schéma, appelé mise en cache codée agrégée, qui peut récupérer entièrement les gains de mise en cache codée en capitalisant sur les informations partagées apportées par la contrainte de taille de fichier effectivement inévitable. La thèse passe ensuite à des scénarios avec des émetteurs avec des réseaux multi-antennes. En particulier, nous considérons maintenant le scénario multi-utilisateurs assisté par cache multi-antennes, où l'émetteur multi-antennes délivre des flux de mise en cache codés, pouvant ainsi servir plusieurs utilisateurs à la fois, avec des chaînes de radio fréquences (RF) réduites. Ce faisant, la mise en cache codée peut aider un simple formateur de faisceau analogique (une seule chaîne RF), entraînant ainsi des économies considérables d'énergie et de matériel. Enfin, après avoir supprimé la limitation de la chaîne RF, la thèse étudie les performances de la technique de mise en cache codée par vecteur et révèle que cette technique peut atteindre, sous plusieurs hypothèses réalistes, une augmentation multiplicative du taux de somme par rapport à la contrepartie optimisée multi-antennes sans cache. En particulier, pour un système MIMO de liaison descendante déjà optimisé pour exploiter à la fois les gains de multiplexage et de formation de faisceaux, notre analyse répond à une question simple: quelle est l'augmentation de débit multiplicative obtenue en introduisant des caches côté récepteur de taille raisonnable ?
The thesis first addresses the worst-user bottleneck of wireless coded caching, which is known to severely diminish cache-aided multicasting gains. We present a novel scheme, called aggregated coded caching, which can fully recover the coded caching gains by capitalizing on the shared side information brought about by the effectively unavoidable file-size constraint. The thesis then transitions to scenarios with transmitters with multi-antenna arrays. In particular, we now consider the multi-antenna cache-aided multi-user scenario, where the multi-antenna transmitter delivers coded caching streams, thus being able to serve multiple users at a time, with a reduced radio frequency (RF) chains. By doing so, coded caching can assist a simple analog beamformer (only a single RF chain), thus incurring considerable power and hardware savings. Finally, after removing the RF-chain limitation, the thesis studies the performance of the vector coded caching technique, and reveals that this technique can achieve, under several realistic assumptions, a multiplicative sum-rate boost over the optimized cacheless multi-antenna counterpart. In particular, for a given downlink MIMO system already optimized to exploit both multiplexing and beamforming gains, our analysis answers a simple question: What is the multiplicative throughput boost obtained from introducing reasonably-sized receiver-side caches?
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Ahmed, Ouameur Messaoud. "Modélisation et estimation de canaux pour les communications sans fil /". Trois-Rivières : Université du Québec à Trois-Rivières, 2002. http://www.uqtr.ca/biblio/notice/resume/03-2246374R.html.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Ahmed, Ouameur Messaoud. "Modélisation et estimation de canaux pour les communications sans fil". Thèse, Université du Québec à Trois-Rivières, 2002. http://depot-e.uqtr.ca/3990/1/000102243.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

El, Fatni Abdelaziz. "Modélisation, analyse et conception de protocoles MAC multi-canaux dans les réseaux sans fil". Thesis, Toulouse 2, 2013. http://www.theses.fr/2013TOU20033.

Texto completo da fonte
Resumo:
L’utilisation des communications multi-canaux au niveau des protocoles MAC (MAC multi-canaux) dans les réseaux sans fil peut améliorer significativement le débit du réseau par rapport aux protocoles MAC mono-canal en permettant à plusieurs transmissions concurrentes d’avoir lieu simultanément sans interférence sur différents canaux non recouverts. Cependant, l’environnement multicanaux ajoute une nouvelle dimension aux protocoles MAC qui nécessite un nouveau mécanisme appelé "le mécanisme d’allocation des canaux" pour coordonner l’utilisation des canaux. Le rôle de ce mécanisme est de permettre aux nœuds de s’accorder sur le canal qui doit être utilisé et à quel moment pour la transmission de données dans un contexte distribué. L’absence de ce mécanisme ou une mauvaise coordination de l’utilisation des canaux peut produire l’effet inverse de celui recherché. Ainsi, l’efficacité d’un protocole MAC multi-canaux dépend strictement de l’efficacité du mécanisme d’allocation des canaux, qui par ailleurs, doit offrir les garanties nécessaires au fonctionnement de la communication multi-canaux. Dans cette thèse, nous nous intéressons à la modélisation, l’analyse et la conception de nouveaux protocoles MAC multi-canaux dans les réseaux sans fil. Dans un premier temps, nous nous focalisons sur la spécification formelle et la vérification des propriétés fondamentales inhérentes aux activités de l’allocation des canaux et son impact sur le transfert de données des principales approches MAC multi-canaux proposées dans la littérature. Dans un second temps, nous visons à proposer, modéliser et à analyser formellement deux nouveaux protocoles MAC multicanaux résultants de l’analyse qualitative réalisée. Enfin, une étude quantitative et comparative est menée afin d’analyser les performances des protocoles proposés en terme de débit et d’impact du temps de commutation entre les canaux
The use of multi-channel communications in MAC protocols (multi-channel MAC) for wireless networks can significantly improve the network throughput compared with single channel MAC protocols since concurrent transmissions can take place simultaneously on distinct non-overlapping channels without interfering. However, due to the multi-channel environment, a novel issue must be addressed in MAC protocols, which is called "the channel assignment mechanism" in order to coordinate the channels access. The role of this mechanism is to enable nodes to agree on which channel should be used and when for data transmission in a distributed way. The absence of this mechanism or a bad coordination of the channel usage can incur the opposite effect to that intended. Thus, the efficiency of a multi-channel MAC protocol depends strictly on the efficiency of the channel assignment mechanism, which also must provide the guarantees necessary to the good behavior of the multi-channel communications. In this thesis, we focus on the modeling, analysis, and design of new multi-channel MAC protocols in wireless networks. Firstly, we focus on the formal specification and verification of fundamental properties inherent to the activities of the channel assignment and its impact on the data transfer for the main multi-channel MAC approaches proposed in the literature. Secondly, we aim to propose, model and analyze formally two new multichannel MAC protocols, resulting from the qualitative analysis conducted. Finally, a quantitative and comparative study is conducted to analyze the performance of the proposed protocols in terms of the throughput and the impact of the switching time between channels
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Haggui, Haithem. "Estimation et égalisation des canaux sans fil épars utilisant l’algorithme des moindres carrés récursifs épars SPARLS". Mémoire, École de technologie supérieure, 2012. http://espace.etsmtl.ca/1103/1/HAGGUI_Haithem.pdf.

Texto completo da fonte
Resumo:
Les modèles des canaux multi-trajets dans les systèmes de communication modernes tendent à exhiber une structure éparse (dispersée) selon Cotter (2002, p. 374) et un grand nombre de trajets résolus comme le mentionne Tse et Vishwanath (2005, p. 32). La théorie de l’acquisition compressée a orienté l’effort de recherche vers l’exploitation de cette caractéristique pour améliorer les performances des estimateurs tout en réduisant le nombre d’observations requis pour l’estimation. Ce travail vise l’adaptation de l’algorithme sparse recursive least squares (SPARLS), utilisé pour l’estimation des canaux épars par Babadi, Kalouptsidis et Tarokh (2008), pour faire l’égalisation tout en investiguant l’apport en performances de la dispersion des canaux en estimation et en égalisation. Cette étude s’étend pour toucher l’aspect implémentation de SPARLS à la recherche d’une solution matérielle qui permet de profiter de la dispersion pour rencontrer les contraintes de l’égalisation en temps réel pour les récepteurs wideband code division multiple access (WCDMA), pour ce faire, nous allons évaluer les performances de cette nouvelle méthode à travers une étude comparative avec l’algorithme classique recursive least squares (RLS). Dans un contexte d’estimation de canal, les critères d’évaluation sont principalement : la précision, le taux de convergence et la complexité de calcul. La précision est évaluée à travers l’évolution de la valeur stationnaire de l’erreur quadratique moyenne (EQM) en fonction du rapport signal sur bruit (RSB). À travers son comportement temporel, l’EQM reflète aussi le taux de convergence de la technique considérée et par ailleurs sa capacité de poursuite des variations du canal. À ces critères s’ajoute le taux d’erreur symbole dans le contexte de l’égalisation. Cette mesure dévoile la robustesse des méthodes évaluées sous différentes conditions de distorsion de canal. La technique SPARLS prouve sa supériorité en estimation de canal et devance la nouvelle variante de RLS que nous avons proposée pour promouvoir la dispersion le long du processus de l’estimation. Nous avons réussi à faire fonctionner SPARLS en égaliseur, toutefois, ses performances en taux d’erreur symbole restent sous-optimales en attente d’une étude statistique pour déterminer les valeurs adéquates de ses paramètres prédéfinis. Pour gérer l’irrégularité du calcul due au caractère dispersé des variables, nous avons opté pour un partitionnement de l’implémentation entre un processeur de traitement de signal et un fieldprogrammable gate array (FPGA). Cette solution assurera la flexibilité nécessaire pour exploiter la dispersion tout en garantissant un rapport coût-efficacité raisonnable.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Agueh, Djidjoho Max. "Protection inégale pour la transmission d'images et vidéo codées en Jpeg 2000 sur les canaux sans fil". Nantes, 2008. http://www.theses.fr/2008NANT2069.

Texto completo da fonte
Resumo:
La protection des données dans les systèmes multimédia sans fil est un enjeu majeur. Ainsi, le nouveau standard de représentation d’image JPEG 2000 spécifie dans sa onzième partie (JPEG 2000 sans fil), des techniques de protection afin d’améliorer la robustesse des images et vidéos JPEG 2000 contre les erreurs de transmission dans ces réseaux. Bien que la norme JPEG 2000 définisse les codes de Reed-Solomon (RS) à utiliser, elle ne spécifie pas de méthodes de sélection de ces codes. Dans cette étude nous analysons des traces réelles de canaux sans fil de type 802. 11 puis nous en déduisons un modèle comportemental d’erreur au niveau applicatif dans les réseaux sans fil (modèle de Gilbert). A partir des modèles de Gilbert obtenus, nous proposons une méthodologie de compensation de perte a priori qui consiste à sélectionner empiriquement les codes RS. Nous montrons que les performances en termes de Peak Signal to Noise Ratio (PSNR) de la méthodologie de compensation de perte a priori sont supérieures à celles d’une transmission sans protection. Toutefois, l’efficacité de la méthodologie de compensation de perte a priori est limitée car cette dernière n’est pas en mesure d’adapter le niveau de protection des données aux changements de l’environnement de transmission. Nous proposons alors une méthodologie de compensation de perte dynamique qui est basée sur la protection inégale des couches de qualité des images et vidéos JPEG 2000. Cette méthode offre des performances de l’ordre de 10% supérieures aux méthodes proposées dans la littérature telles que la méthode de protection proposée par Zhaohui Guo et al tant en termes de PSNR que de taux de décodage d’image avec succès. Malgré l’avantage que présentent ces méthodes du fait de leur faible complexité ces méthodes sont sub-optimales car elles n’exploitent pas la différence entre les paquets d’une même couche de qualité. Nous proposons alors une méthodologie de compensation de perte optimale basée sur la protection inégale des paquets JPEG 2000. Pour des canaux fortement perturbés et pour des images constituées d’un nombre raisonnable de paquets JPEG 2000 (inférieur à 1000 paquets), la compensation de perte optimale offre des performances supérieures aux techniques précédentes tout en offrant l’avantage d’être légèrement plus complexe. Au-delà des méthodologies de protection proposée, notre étude se veut être un pas vers la garantie de Qualité de Service (QoS) dans les applications multimédia sans fil
Nowadays, data protection against transmission errors in wireless multimedia systems is a crucial issue. JPEG 2000, the new image representation system, addresses this issue by defining in its 11th part (Wireless JPEG 2000 - JPWL) some tools such as Forward Error Correction with Reed-solomon (RS) codes in order to enhance the robustness of JPEG 2000 based images and videos against transmission errors. Although JPWL defines a set of RS codes for data protection, it does not specify how to select those codes in order to handle error rate in wireless multimedia systems. In our work, based on the analysis of 802. 11 based Ad-hoc network traces, we first derive application level channel models (Gilbert model). Then, we propose a methodology for JPEG 2000 images and videos protection with a priori and empiric channel code rate selection. We highlight the interest of the a priori FEC allocation methodology by comparing it to non protected data transmission. We show that the effectiveness of the proposed scheme can be drastically reduced when the channel state changes because the FEC rate allocation is not adaptative. In this context, we propose a dynamic FEC rate allocation methodology which is a layer-based unequal error protection scheme. We demonstrate the effectiveness of this scheme thanks to a wireless client/server JPEG 2000 based images and video streaming application. The dynamic FEC rate allocation scheme overcomes in order of 10% other existing schemes such as the layer-based unequal error protection scheme proposed by Zhaohoui Guo et al both in terms of Peak Signal to Noise Ratio (PSNR) and successful image decoding rate. However, despite their effectiveness layer-based schemes are sub-optimal because they do not take into account the importance of data packets which limits their performances particularly in highly varying environments. We then propose an optimal FEC rate allocation methodology which is a packet-based unequal error protection scheme. The proposed scheme is slightly more complex than layer-based schemes as far as the number of packets constituting the JPEG 2000 image is low (under 1000 packets) and it offers superior performances in terms of PSNR and successful decoding rate. However, if the number of JPEG 2000 packet is significantly important (more than 1000 packets) the optimal methodology can be inefficient for real-time streaming application due it complexity. Beyond the proposition of FEC rate allocation methodologies, our work can be viewed as a step toward the guaranty of Quality of Service (QoS) in wireless multimedia applications
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Shenoy, Kaup Shakti Prasad. "Communications efficaces sur des canaux sans fil : nouveaux résultats de l'égalisation, la diversité et l'alignement des interférences". Paris, ENST, 2010. http://www.theses.fr/2010ENST0046.

Texto completo da fonte
Resumo:
Le thème principal de cette thèse est la communication efficace sur canaux sans fil. La thèse traite de la communication sur les canaux dits à évanouissements uniformes (en anglais flat fading), qu'il s'agisse de canaux sélectifs en fréquence, en temps, ou les deux. Nous considérons des schémas de communication à une (en abrégé SISO, pour l'anglais single input single output) ou plusieurs (resp. MIMO, multiple input multiple output) entrées/sorties. Sur une telle variété de canaux possibles, le sens donné au concept d'efficacité varie suivant le contexte. La première partie de cette thèse traite de la communication sur des canaux sélectifs en fréquence dans UMTS HSDPA. Ici, nous proposons des techniques d'égalisation en vue d'améliorer le débit de données que l'on peut atteindre au niveau du récepteur. Dans ce contexte, un récepteur est plus efficace qu'un autre lorsque, à canal identique, il peut atteindre un débit supérieur. Dans cette partie, nous proposons et analysons la conception de récepteurs pour le protocole HSDPA, pour des systèmes SISO et MIMO, les canaux étant sélectifs en fréquence. La deuxieme partie de la thèse est de nature plus exploratoire. L'objectif principal de cette partie est d'analyser théoriquement le gain de diversité d'égaliseurs linéaires de faible complexité, et d'égaliseurs non-MLE, et de comparer leurs gains de diversité à celui du MLE optimal. Nous verrons que, pour la transmission sur des canaux sans fil qui pouvant être modelisés par les modèles CE-BEM, nous pouvons montrer que la diversité des gains non-ML et MLE est la même
The first part of the thesis studies receiver designs that maximize the data throughput in the high speed downlink packet access (HSDPA). We propose two-stage equalization for both single antenna (SISO) and multiple antenna (MIMO) frequency selective channels. The first stage consists of chip-level processing and the second stage of processing takes place at the symbol level. The second part of the thesis is devoted mainly to theoretical analysis of the diversity order of linear equalization (LE) for transmission in fading channels. We show here that the same precoder also allows linear, decision feedback and ``hybrid" equalization schemes to achieve the same diversity gains as that of MLE. We also devote our attention to low-complexity implementations of these full diversity equalizers. It also appears that a redundancy proportional to channel delay spread is largely enough to allow MLE to collect full channel diversity. We present simulation results that support this observation. In the final part of the thesis we study communication over flat fading multiple input multiple output (MIMO) interference channels (IFC). We address here the most general case of the MIMO IFC and are able to show that, when an IA solution exists, these conditions are satisfied at every step of the proposed recursive algorithm and that an IA solution does not exist when these conditions are not satisfied
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Kharrat, Fatma. "Techniques adaptatives et classification pour les canaux à antennes multiples". Paris, ENST, 2006. http://www.theses.fr/2006ENST0041.

Texto completo da fonte
Resumo:
Ce mémoire se focalise sur les systèmes de communication sans fil ayant plusieurs antennes en réception et en émission. D’abord, on étudie les performances de ces systèmes en se basant sur un schéma de multiplexage spatial en transmission et sur un détecteur ML en réception. Ensuite, on met en avant des techniques adaptatives pour les systèmes MIMO : modulationadaptative et sélection d 'antennes. La première adapte les modulations en émission en fonctiondes conditions radio afin de maximiser l’efficacité spectrale tout en respectant une contrainte sur la probabilité d’erreur. Alors que la deuxième, sélectionne un sous ensemble d’antennes actives pour optimiser le critère de sélection (par exemple : maximiser la capacité, etc. ) étant donnée une estimation de canal. Les deux techniques adaptatives ont besoin d’une métrique pour évaluer les performances du système MIMO. On propose donc un nouveau schéma de modulation adaptative et un nouvel algorithme de sélection d’antennes où l’approximation de la probabilité d’erreur obtenue précédemment est utilisée comme métrique. Finalement, on considère la quantification des canaux MIMO. Cette quantification, ou dans notre terminologie classification, permet de faire une partition de l’ensemble des canaux MIMO en des classes différentes, où chaque classe est identifiée par un représentant. Cette méthode peut être utilisée pour les techniques adaptatives afin de trouver le meilleur jeu de paramètre. Dans ce chapitre, on décrit l’ algorithme de classification et on illustre son application pour les systèmes MIMO à boucle fermée comme le " beamforming "
This thesis report focuses on wireless communication systems with multiple transmit and multiple receive antennas. At first, we study the performance of such systems assuming a spatial multiplexing scheme at the transmitter and an ML detection at the receiver. We derive an accurate approximation for the conditional error probability on a quasi static channel. This approximation is computed when distinct modulations are applied on the transmit antennas and for any MIMO channel configuration. Then, we outline some adaptive techniques for MIMO systems: adaptive modulation and antenna selection. The first one adjusts the modulations on transmit antennas according to the channel conditions in order to maximize the spectral efficiency while satisfying a constraint on error probability. The second technique selects the set of active antennas to optimize the chosen selection criterion (e. G. Maximize the capacity, etc) providing a channel estimation. Both adaptive techniques need a relevant matric to evaluate the MIMO system performance. We propose a new adaptive modulation scheme and antenna selection algorithm where the derived error probability approximation is used as a selection metric. Finally, we consider the quantization of MIMO channels. This quantization, in our terminology classification, allows the partitioning of MIMO channels set into different classes, where each class is identified by a representative. This method could be used for adaptive techniques to find the best adjustable parameters. We describe our MIMO classification algorithm and we illustrate its application for closed-loop MIMO systems, e. G beamforming
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Toham, Carine. "Routage et contrôle de puissance dans les réseaux ad hoc multi-interfaces et multi-canaux". Grenoble INPG, 2008. http://www.theses.fr/2008INPG0108.

Texto completo da fonte
Resumo:
La problématique traitée est l'amélioration du débit utile des réseaux sans fil ad hoc multi-sauts. Le partage du support par tous les nœuds du réseau implique une nécessité de gérer les interférences. La portée radio limitée des nœuds qui utilisent des fréquences libres génère également des contraintes de distance entre l’émetteur et le récepteur. Ces différents facteurs limitent les performances du réseau tel que le débit utile. Nous proposons donc une solution basée sur l'utilisation de plusieurs bandes de fréquence ou canaux et de plusieurs cartes réseaux ou interfaces par nœud pour résoudre ce problème. Nous améliorons le débit utile grâce à une allocation efficace des canaux aux liens de communication combinée à une métrique de routage adaptée à ce type de réseau qui privilégie l'alternance des canaux de qualité correcte et un mécanisme de contrôle de puissance qui favorise la réutilisation de ces canaux
We consider the problem of throughput improvement in multi-hop ad hoc networks. The shared radio medium implies to handle the interferences between the nodes in the network. The limited node radio range also mandates some constraints such as the distance between the transmitter and the receiver. These two main facts limit the network performance, notably the throughput. We propose a solutio~ that takes advantage of nodes equipped with multiple network cards (interfaces) and that use multiple frequency bands (channels) for transmitting data. We improve the network throughput by combining an efficient transmission link channel assignment with a suitable routing metric that privileges the alternation of good quality channels along the routes. A power control mechanism complements that scheme by favouring each channel reuse
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Mossanen, Amini Réza. "Un cadre économique pour le routage et l'allocation de canaux dans les réseaux maillés sans fil avec la radio cognitive". Mémoire, École de technologie supérieure, 2013. http://espace.etsmtl.ca/1217/1/MOSSANEN_AMINI_R%C3%A9za.pdf.

Texto completo da fonte
Resumo:
Les réseaux maillés sans fil avec la radio cognitive sont constitués des routeurs de maille avec la capacité cognitive qui sont interconnectés entre eux par des liaisons sans fil permettant l’acheminement du trafic en relais et certains d’entre eux jouent le rôle de passerelle afin d’accéder au réseau internet. La capacité cognitive est une manière économique pour augmenter la bande passante disponible, mais elle nécessite un mécanisme de gestion adaptative de bande passante pour faire face aux dynamiques des activités des utilisateurs primaires. Dans cette thèse, nous modélisons les opérations conjointes d'allocation des canaux et le routage des connexions des usagers secondaires (sans licence d’accès) dans les réseaux maillés sans fil avec la radio cognitive. Le processus d'allocation des canaux inclut les opportunités de réutilisation des canaux afin d’améliorer la performance du réseau. On définit un cadre économique pour l'adaptation et le contrôle des ressources du réseau qui nous permet l’intégration du processus de routage avec celui d’allocation de canaux avec le but de la maximisation du profit du réseau. Le cadre économique est basé sur la notion du prix caché dépendant de l’état du noeud qui est dérivée de la théorie de la décision de Markov en mode décomposé. Les prix cachés des noeuds sont utilisés comme les métriques de routage tandis que leurs valeurs moyennes sont utilisées pour allouer des canaux parmi les différents noeuds. Le déploiement de ce modèle décomposé possède l’avantage d’implémentation décentralisée des processus utilisés dans le cadre économique qui permet leurs exécutions en temps réel. Les routages des connexions des usagers secondaires sont réalisés sans endommager les transmissions des usagers primaires et sans créer de l’interférence avec les transmissions d’autres usagers secondaires. Les canaux cognitifs sont utilisés de manière opportuniste et l’accès prioritaire de l’usager primaire dans sa bande de fréquence (son canal) est modélisé par la préemption. Les connexions d’usagers secondaires sont considérées homogènes et nous abordons uniquement l'adaptation de capacité à court terme dans lequel le nombre de canaux disponibles au réseau est constant et par ailleurs nous présumons aussi qu'il y a toujours un nombre suffisant d'interfaces radio lorsque les canaux sont réaffectés aux noeuds. Les résultats sont portés sur les deux cas de non-réutilisation et de réutilisation des canaux et pour chaque cas la performance obtenue confirme le modèle théorique d’optimisation présenté dans les chapitres correspondants. Par ailleurs, deux approches heuristique et analytique de calcul de la capacité sont comparées manifestant les mêmes performances. Les résultats de simulation illustrent la maximisation du profit du réseau et l'efficacité du schéma d'allocation des canaux proposé qui est intégré avec l'algorithme de réutilisation des canaux.
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia