Academic literature on the topic 'Tranche de réseau'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Tranche de réseau.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Tranche de réseau"

1

Lins de Barros, Myriam Moraes, and Sara Nigri Goldman. "Internet: Y a-t-il une place pour les “vieux”?" Revista Trace, no. 41 (September 5, 2018): 97. http://dx.doi.org/10.22134/trace.41.2002.568.

Full text
Abstract:
Les recherches réalisées entre 1997 et 2000 sur l'utilisation d'internet au Brésil montrent que le profil standard des internautes se compose de jeunes entre 15 et 25 ans, appartenant aux couches moyennes supérieures. Cependant, on constate l'ouverture d'un espace pour les quinquagénaires qui recherchent des contacts au travers de chats -cette autre manière de communiquer née avec internet. L'étude réalisée comprenait des interactions virtuelles avec les participants de ces espaces. Les gens qui fréquentent ces lieux de sociabilité virtuelle vivent dans différentes villes brésiliennes ou sont des Brésiliens habitant à l'étranger qui peuvent communiquer entre eux en portugais. Bien que cet espace soit destiné aux personnes de 50 ans et plus, il n'est pas exclusivement fréquenté par des personnes de cette tranche d'âge, ce qui permet l’établissement de relations entre générations différentes. Le but de la recherche est de comprendre comment se construisent les représentations de la vieillesse dans ce réseau et les réactualisations de certaines images des personnes âgées par rapport à la sexualité et au corps. L'étude analyse également la mise au point d’un langage propre à cet espace, avec des codes de communication et des règles de sociabilité spécifiques.
APA, Harvard, Vancouver, ISO, and other styles
2

Lambert, Claude. "De la nécessité de Désordre dans la Démocratie." Acta Europeana Systemica 6 (July 12, 2020): 41–48. http://dx.doi.org/10.14428/aes.v6i1.56803.

Full text
Abstract:
Dans cet article, je propose dem'appuyer sur une évaluation de dysfonctionnement démocratique partagée par de nombreux citoyens. Pour ce faire, je propose d'appliquer la conjecture de Heinz Von Foerster à la société contemporaine. Laconjecturede von Foerster décrit le rapport de causalité circulaire entre une totalité (par exemple, une collectivité humaine) et ses éléments (les individus qui la composent). Elle établit que plus les relations inter-individuelles sont "rigides"plus le comportement de la totalité apparaîtra aux élémentsindividuels qui la composentcomme doté d'une dynamique propre qui échappe à leur maîtrise alors qu'elle sera d'autant plus prédictible par un observateur extérieur.C'est ainsi que je montrerai comment les relations entre les acteurs de nos sociétés sontdominées par le paradigme de l'échange marchand basé sur la quantification, l'équivalence et la liberté des acteurs. D'un point de vue éthique, on ne peut que se féliciter de la liberté ainsi permise. Au-delà du contenu de ce type de relation, je fais l'hypothèse qu'elles ont par nature un caractère rigide et prédictible dans la forme, rencontrant ainsi les conditions d'application de la conjecture de H. von Foerster. Ceci se manifeste par un sentiment régulièrement partagé que la totalité est guidée ou manipulée par un "pouvoir obscur" ou "main invisible". A la recherche de sens, cette perception alimente et justifie les discours populistes et les théories du complot. Cependant, on ne peut se satisfaire de cette explication en invitant les acteurs de l'intérieur à adopter le point de vue de l'observateur extérieur. Les deux objectivités –de l'intérieur et de l'extérieur -se valent selon le point de vue. Il est donc utile de rester au niveau du monde-vécu et d'explorer un angle de vue alternatif. C'est ainsi que l'on peut mettre en rapport la liberté individuelle permise par le marché vis-à-vis de la liberté d'engagement dans la vie sociale. Cette dernière est rencontrée au sein d'une communauté animée par le paradigme du don-contredon au sens de Marcel Mauss. Le paradigme du don se manifeste aujourd'hui dans les formes d'associations informelles: associations de voisins, réseaux d'échanges, mouvements de militance morale... La relation qui s'établi par le don a un caractère imprédictible et incertain qui tranche avec la "simplicité" et univocité de la relation marchande. Ce caractère incertain du don-contredon introduit dans la société de l'inattendu, ce qui d'un point de vue systémique est favorable à l'innovation et l'adaptation. On ne peut alors que s'inquiéter de la tendance actuelle à la marchandisation du service public, la professionnalisation du service aux personnes, à l'application des critères du marché au fonctionnement des associations du secteur non-marchand... Cette tendance représente une réduction de la complexité sociale favorable à la rigidification des relations. Il ne s'agit pas ici de faire le procès du paradigme de l'échange marchand car il assure l'indépendance et l'accès à l'étranger au réseau d'échange. Il s'agit de suggérer une multiplicité des typologies de relations. C'est ainsi que d'un point de vue systémique, on ne peut que se féliciter d'une certaine forme de désordre social. Le régime démocratique accueille par définition conflit, débat et diversité de comportements.
APA, Harvard, Vancouver, ISO, and other styles
3

Olita, Paolo. "L’îlotage : ce qui se joue lorsqu’un réacteur est brutalement coupé du réseau." Revue Générale Nucléaire, no. 1 (2024): 62–63. http://dx.doi.org/10.1051/rgn/20241062.

Full text
Abstract:
Fin 2023, la tempête Ciaran balaie violemment la France et rompt la ligne d’évacuation de la centrale de Flamanville, nécessitant l’îlotage des deux tranches alors en fonctionnement. Retour sur ce « transitoire » dont la maîtrise est essentielle à la sureté nucléaire.
APA, Harvard, Vancouver, ISO, and other styles
4

Baril, Quentin, and Nicolas Samuelian. "Des vestiges méconnus de la Seconde Guerre mondiale : les tranchées-abris du programme de défense passive." Revue d'archéologie contemporaine N° 2, no. 1 (October 23, 2023): 145–58. http://dx.doi.org/10.3917/raco.002.0145.

Full text
Abstract:
En France, de nombreuses traces témoignent, encore aujourd’hui, du programme national de défense passive mis en place dès le début des années 1930. Son rôle était d’assurer la protection des civils contre les attaques aériennes en temps de guerre grâce à un certain nombre de mesures préventives, notamment la construction ou le renforcement de réseaux souterrains (caves, abris ou tranchées). Les vestiges de cette organisation défensive, qui ont parfois peu marqué la mémoire collective, se signalent aujourd’hui discrètement dans le paysage urbain ou rural, lorsqu’ils n’ont pas complètement disparu. Quelques exemples archéologiques récents et choisis permettent de redécouvrir ces témoignages matériels, à travers les fouilles d’Olonne-sur-Mer (Vendée) l et de Sauveterre-de-Guyenne (Gironde) m et le diagnostic de Nanterre (Hauts-de-Seine) n .
APA, Harvard, Vancouver, ISO, and other styles
5

Wawrzyniak, Vincent, Bianca Räpple, Hervé Piégay, Kristell Michel, Hervé Parmentier, and Alice Couturier. "Analyse multi-temporelle des marges fluviales fréquemment inondées à partir d'images satellites Pléiades." Revue Française de Photogrammétrie et de Télédétection, no. 208 (October 23, 2014): 69–75. http://dx.doi.org/10.52638/rfpt.2014.96.

Full text
Abstract:
Cet article explore les potentialités des images satellites Pléiades pour l'étude multi-temporelle des marges fluviales fréquemment inondées afin d'évaluer leur diversité d'habitats. L'intérêt des images Pléiades est lié à leur résolution spatiale et temporelle. Le fait de disposer de plusieurs images sur un laps de temps court permet de caractériser la fluctuation de la zone en eau liée à la seule variation du débit au sein de tronçons fluviaux dont la géométrie n'a pas été remaniée. Des fréquences d'inondation variables garantissent en effet une plus grande diversité d'habitats au sein des corridors fluviaux. Trois cas contrastés ont été retenus, chacun d'eux présentant des enjeux opérationnels en termes de caractérisation des habitats : des bancs, des chenaux secs, des zones humides riveraines. Les résultats soulignent que la répétitivité temporelle des images pléiades est relativement bonne pour appréhender ces questions. Il a été possible de disposer de trois à cinq images sur l'année, heureusement acquises pour des débits contrastés ce qui a permis de bien caractériser la fréquence de mise en eau des bancs de galets et du réseau de chenaux. Dans le cas des zones humides riveraines, il a été possible d'identifier les cas les plus tranchés mais avec seulement deux acquisitions pour des débits contrastés, il était difficile d'être plus précis. Le nombre d'images reste malgré tout limité pour effectuer de telles caractérisations. Un recul de plusieurs années est important afin de voir combien d'états contrastés hydrologiquement il est raisonnablement possible de disposer sur les différents sites. Pouvoir disposer de dix à quinze acquisitions annuelles permettrait plus probablement de répondre à ces enjeux.
APA, Harvard, Vancouver, ISO, and other styles
6

Deschodt, Laurent, Mathieu Lançon, Samuel Desoutter, Guillaume Hulin, François-Xavier Simon, Bruno Vanwalscappel, Yves Créteur, et al. "Exploration archéologique de 170 hectares de plaine maritime (Bourbourg, Saint-Georges-sur-l’Aa, Craywick, Nord de la France) : restitution de la fermeture d’un estuaire au Moyen Âge et mise en évidence de mares endiguées." BSGF - Earth Sciences Bulletin 192 (2021): 12. http://dx.doi.org/10.1051/bsgf/2021004.

Full text
Abstract:
Dans le cadre de l’agrandissement du port de Dunkerque, plus de 170 hectares de la plaine maritime ont été explorés sur la future « Zone Grande Industrie », dans l’ancien estuaire de la Denna (ou Déna, ou L’Enna), sous-bassin du petite fleuve côtier Aa. Le diagnostic d’archéologie préventive classique par ouverture de tranchées a été accompagnée de recherches en archives, de prospections géophysiques, de levés géomorphologiques en sondages en puits (profonds de 3 m) et en coupes. L’intégration des études de nature différente permet d’aboutir à une compréhension du secteur meilleure que ne l’eût fait chaque discipline séparément. Les dépôts sont essentiellement des sables tidaux recoupés par des chenaux de marée. Les décimètres supérieurs sont parfois plus limoneux. Les mesures de conductivité apparente permettent de spatialiser les données lithostratigraphiques ponctuelles. Leur confrontation, ainsi que des indices venant du réseau parcellaire, permet la mise en évidence d’un bord ouest de l’estuaire, contemporain d’occupations humaines. De même, la confrontation des vestiges archéologiques levés lors du diagnostic avec une zonation basée sur la géophysique et la stratigraphie permet d’appréhender l’évolution du paysage, notamment l’expansion et la contraction de l’habitat du secteur, depuis les premières interventions aux environs des Xe–XIIe siècles sur la bordure ouest de l’estuaire. Depuis ce dernier, l’habitat a progressé vers le nord-est, jusqu’à un bras de la Denna resté longtemps actif et dont l’axe correspond au système de drainage actuel. La cartographie de conductivité électrique permet également de mettre en évidence des anomalies qui se sont révélées être de larges et profondes structures anthropiques (jusqu’à environ 40 m de diamètre et plus de 5 m de profondeur, soit −2,5 m sous la cote zéro). Bien que nombreuses, ces structures peuvent passer facilement inaperçues lors des diagnostics archéologiques. Plusieurs ont été testées. Leur remplissage est variable mais présente comme point commun une étanchéification du fond et des parois par des mottes d’argile. Ces structures sont interprétées comme des mares endiguées dont quelques exemples subsistent sur la côte de la mer du Nord (en Frise, en Zélande et en Allemagne). Elles permettaient de recueillir l’eau douce et leur couronne de remblais en élévation s’élevaient au-dessus des plus fortes marées.
APA, Harvard, Vancouver, ISO, and other styles
7

Paché, Gilles. "Vendre le Doute: Des Outils de Communication au Service de la Manipulation des Masses." European Scientific Journal, ESJ 19, no. 20 (July 31, 2023): 86. http://dx.doi.org/10.19044/esj.2023.v19n20p86.

Full text
Abstract:
Depuis plusieurs décennies, des entreprises appartenant à des secteurs d’activité qui présentent un danger pour la santé des êtres humains, voire pour la planète, ont su déployer des outils puissants de communication en vue d’instiller le doute sur la réalité dudit danger dans l’esprit du grand public, mais aussi du personnel politique. Pour y parvenir, des travaux scientifiques contradictoires sont mobilisés, largement diffusés dans les médias et sur les réseaux sociaux, et leurs conclusions ne permettant pas de trancher définitivement dans un sens ou dans un autre, l’absence de certitude avérée freine la mise en œuvre de toute action réglementaire de protection. Vendre le doute est une démarche désormais largement étudiée par des chercheurs en sociologie critique ou en histoire des sciences, mais encore peu, voire pas investiguée en systèmes d’information et de communication. Il s’agit pourtant d’une thématique majeure pour mieux comprendre l’usage des outils de communication par des entreprises qui cherchent ainsi à manipuler les masses. En référence à une méthodologie fondée sur des « traces », la note de recherche identifie les soubassements historiques de la propagation massive du doute, à partir des débats fondés sur le « faux équilibre ». L’enjeu est de systématiser le relativisme dans une perspective de triomphe de la post-vérité dont les avancées depuis deux décennies s’expliquent à la fois par le silence des élites scientifiques et par le dévoiement d’un journalisme parfois peu rigoureux. For decades, companies operating in sectors that pose a threat to human health, or even to the planet, have been deploying powerful communication tools to instill doubt in the minds of the public, as well as politicians, as to the reality of the danger. To achieve this, contradictory scientific studies are used, and widely disseminated on media and social networks, and their conclusions do not allow a definitive decision to be made. The absence of proven certainty thus slows down the implementation of any regulatory protective action. Selling doubt is an approach now widely studied by researchers in critical sociology and the history of science, but still little or no investigation into information and communication systems. Yet it is a major theme in understanding the use of communication tools by companies seeking to manipulate the crowd. With reference to a methodology based on “traces,” the research note identifies the historical underpinnings of the massive spread of doubt, starting with debates based on “false balance” (or bothsidesism). The aim is to systematize relativism in the context of the triumph of post-truth, whose advances over the past two decades can be explained both by the silence of scientific elites and by the misuse of sometimes not very rigorous journalism.
APA, Harvard, Vancouver, ISO, and other styles
8

De Matos-Machado, Rémi, Jean-Pierre Toumazet, and Stéphanie Jacquemot. "Cartographie semi-automatisée et classification des réseaux de tranchées et boyaux du champ de bataille de Verdun à partir du LiDAR aéroporté." Archéologies numériques 4, no. 1 (2020). http://dx.doi.org/10.21494/iste.op.2020.0525.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Sliwinski, Alicia. "Globalisation." Anthropen, 2018. http://dx.doi.org/10.17184/eac.anthropen.084.

Full text
Abstract:
Le concept de globalisation désigne l’interconnexion et l’interdépendance accrues de toute une gamme de relations sociales à l’échelle planétaire recouvrant d’importantes dimensions politiques, économiques, culturelles, environnementales et subjectives. Depuis les années 1980, la globalisation est devenue un discours dominant pour décrire la mise en place d’une nouvelle condition planétaire. Si nul ne nie que la globalisation soit un processus, la période historique qu’elle est censée marquer a fait l’objet de maints débats, aussi bien en anthropologie que dans les autres sciences sociales. Pour certains, la globalisation prend son essor au 19ème siècle avec les bouleversements liés au colonialisme, les avancées technologiques en matière de transport et de communication et l’expansion sans précédent des échanges commerciaux. Pour d’autres, la globalisation réalise la consolidation d’un système capitalisme mondial ou d’une « économie-monde » qui s’organise au 16ème siècle avec la division internationale du travail. Que des parties éloignées de la planète soient reliées entre elles ne date certes pas d’hier : les empires hellénique, romain et mongol ou encore la route de la soie montrent bien que les relations « transnationales » existent depuis longtemps. Cette discussion largement débattue a opposé le camp des « sceptiques » à celui des « globalisants » quant à la nouveauté du phénomène. Notons qu’en français deux termes existent pour désigner l’intensification et la multiplication des connexions et des réseaux reliant différentes parties du monde jadis nettement plus isolées les unes des autres : mondialisation et globalisation. Parfois ils sont utilisés en tant que synonymes, mais il y a lieu d’apprécier la nuance que leur distinction permet (Abélès 2008). La notion de mondialisation insisterait davantage sur les continuités historiques entre le passé et notre contemporanéité – sur le devenir-monde –, alors que la globalisation signale les discontinuités et les ruptures qui permettent d’affirmer que quelque chose de déterminant est apparu à la fin du 20ème siècle dans notre expérience du monde. Il y a au moins trois facteurs décisifs à cet égard : l’essor d’une économie de marché globale, l’ascension de l’Internet et des technologies de communication dans nos vies quotidiennes et l’apparition de mouvements et de politiques identitaires, plus ou moins violents, et parfois clairement orientés contre la globalisation. La phase actuelle de la globalisation est généralement associée à la doctrine du néolibéralisme, mais il ne faut pas les confondre. Le néolibéralisme caractérise le décloisonnement et la réorganisation des champs politiques et économiques dans le but de réduire les obstacles au commerce mondial. Les mesures macroéconomiques du Consensus de Washington introduites dans les années 1980 – telles que la libéralisation du commerce, la déréglementation de l’économie, la privatisation des entreprises nationales et la réduction des dépenses publiques et des impôts –, ont été mises en place pour favoriser le libre-échange entre les États. Avec la chute du bloc communiste qui annonçait, selon certains, « la fin de l’histoire » (Fukuyama 1992) et la preuve que les démocraties libérales étaient les plus aptes à assurer la croissance d’une économie avancée, la globalisation néolibérale a pris son envol. Au cœur de l’idéologie néolibérale siège la croyance que moins il y a d’entraves à une économie de marché globale, plus les pays seront prospères. De fait, la globalisation va grossir la sphère d’influence d’entités supranationales sur les États modifiant leur rapport au territoire et le contrôle de leurs économies nationales. Le triumvirat de la Banque Mondiale, du Fonds Monétaire International et de l’Organisation mondiale du commerce y a joué un rôle clé, mais ces organisations ont également fait l’objet d’intenses critiques et de mobilisations populaires pour avoir creusé le fossé entre les riches et les pauvres. En matière d’économie politique, la globalisation néolibérale a libéré le capital de ses lieux de production : le capitalisme du nouveau millénaire n’est plus caractérisé par la valeur du travail, mais plutôt par la consommation, la délocalisation et la circulation sans précédent de flux financiers transnationaux, souvent spéculatifs, générant la concentration d’immenses fortunes, mais aussi de nouvelles formes d’exclusion et de dépossession. Parmi les gagnants, soulignons l’essor fulgurant des compagnies technologiques. De fait, le « numérique » exerce une influence considérable dans les nouvelles grammaires culturelles, symboliques et identitaires. Il est couramment entendu que c’est le rapport au temps et à l’espace que la globalisation a profondément altéré. Selon David Harvey (1989), la globalisation exprime la compression de l’espace et du temps, accélérant les processus économiques et sociaux. Elle a créé de nouvelles configurations sociales et technologiques ayant radicalement réduit le temps des échanges et des déplacements. Depuis, l’espace ne cesse de se réduire et le temps de s’accélérer. Pour Anthony Giddens (1990), il s’agit davantage d’un élargissement de l’expérience vécue de ces catégories, et de leur séparation, si bien que la globalisation implique le désenclavement (disembedding) des relations sociales de leurs contextes locaux. Ici, la globalisation prolonge et affermit le processus d’individualisation de la société entamé au 19ème siècle. Un troisième penseur de la globalisation parmi les plus cités est Manuel Castells (1998) qui a avancé l’idée de la société en réseau. Cette nouvelle société réticulaire, informationnelle et globale, est issue de la révolution technologique ayant profondément transformé les modes d’organisation économique, les modalités du travail (et leur contenu), ainsi que les pratiques sociales reliées au temps et à l’espace. À partir de ces thèses notoires, nous pouvons identifier quelques paramètres pour mieux cerner la globalisation : le mouvement accru du capital, des personnes, des marchandises, des images et des idées ; l’intensification des réseaux qui relient différentes parties du globe ; l’élargissement et la déterritorialisation de pratiques sociales, culturelles, politiques et économiques au-delà des frontières ; enfin l’imbrication du local au global, et vice versa, dans nos expériences vécues du monde. Ces dynamiques restent pertinentes, mais nous aurions tort de croire que la globalisation est un phénomène total et achevé. La société en réseau n’est pas uniformément distribuée et la géographie de la globalisation expose combien cette dernière encourage la concentration des activités économiques, politiques et culturelles dans quelques grands centres et mégapoles. Si d’un côté la globalisation tend à homogénéiser les cultures quand les contextes locaux assimilent des produits culturels importés – on a parlé de l’américanisation, de la McDonaldisation et de l’aplatissement du monde –, elle entraine tout autant des formes de fragmentation et de recomposition des identités ethniques et culturelles. De vifs débats ont cherché à déterminer si la globalisation produisait plus de standardisation ou de diversité, d’intégration ou de désintégration, et si ces processus s’avéraient avantageux ou non. Les questions d’échelle sont importantes et les anthropologues ont adopté des approches plurielles pour éviter les interprétations qui ont « tendance à se produire dans l’espace raréfié de la méta-histoire et des généralités abstraites » (Barber et Lem 2004). Jonathan Friedman (2008) envisage la globalisation sous l’angle de la modernité, entendue comme le champ culturel du capitalisme commercial. La globalisation s’articule alors au développement d’un ethos cosmopolitique dont l’essor continue d’infléchir la « forme sociale du monde » (Agier 2013). Les analyses anthropologiques ont mis l’accent sur les flux et les disjonctions que la globalisation entraine (Appadurai 1996), les nouveaux assemblages politiques, technologies et éthiques (Ong et Colier 2005), l’hybridité et la créolisation (Hannerz 1987), la circulation des marchandises et des valeurs dans les contextes non hégémoniques de la « globalisation-par-le-bas » (Ribeiro 2012; Haugerud et al. 2001), la création de « non-lieux » caractéristiques de la surmodernité (Augé 1992), ou les frictions que les nouvelles articulations entre le local et le global entrainent (Tsing 2005). Par ailleurs, la globalisation a eu des répercussions sur les méthodologies de l’anthropologie : on assiste à une plus grande réflexivité dans la pratique de terrain qui devient lui-même multisites (Marcus 1995). Il s’agit également de révéler les liens entre le micro et le macro et ce qui y circule, s’y négocie ou se conteste. Toutefois, au niveau épistémologique la globalisation n’a pas la même valence que la notion de culture. Peut-on parler d’une culture globale et faire une ethnographie du global ? Marilyn Strathern (1995) notait que le global risquait d’être un concept autoréférentiel puisqu’il n’offre pas de point de vue sur le monde : il ne donne pas à voir les relations sociales qui sont rendues manifestes dans des ancrages locaux. Ces questions ne sont pas tranchées et renvoient à la portée herméneutique accordée au global en tant que contexte dans et par lequel la pratique anthropologique opère, en tant qu’objet bon à penser, sur lequel agir, et qui libère de nouveaux imaginaires. Le 21ème siècle maintenant bien entamé, force est de constater que la globalisation a creusé les inégalités entre les nations, les régions et les classes sociales. En 2017, plus de 80 % de la richesse mondiale a été empoché par 1 % de la population (Oxfam 2018). Ces rapports d’inégalité ne s’expriment pas uniquement en termes économiques, mais aussi selon le genre et le degré d’exposition au risque. Ils alimentent également des mouvements de paniques morales face à diverses sortes d’indésirables, qu’il s’agisse de pandémies, de terroristes, de migrants ou de réfugiés. Les politiques identitaires, exacerbées dans l’exutoire des réseaux sociaux, sont un corollaire qui polarise l’espace politique autant par le « haut » (quand les gouvernements promeuvent des nationalismes xénophobes) que par le « bas » (quand les minorités revendiquent la reconnaissance de leurs droits). Ces tensions profondes forcent à repenser le paradigme de l’État-nation dont la souveraineté affaiblie expose la désuétude d’un modèle d’exercice du pouvoir. L’utopie de la globalisation s’est essoufflée et d’autres concepts sont apparus, tels ceux de capitalocène et d’anthropocène pour accuser les maux engendrés par le capitalisme et l’impact délétère des activités humaines sur la planète. Comment infléchir les pathologies de la globalisation pour y remédier est sans doute l’enjeu principal de notre avenir commun.
APA, Harvard, Vancouver, ISO, and other styles
10

De la Croix, David, Frédéric Docquier, and Bruno Van der Linden. "Numéro 72 - septembre 2009." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15453.

Full text
Abstract:
L’accord gouvernemental du 19 juillet 2009 a défini les critères permettant la régularisation des demandeurs d’asile en Belgique (engagement dans une procédure juridique déraisonnablement longue, situation humanitaire urgente, prise en compte de la faculté d’intégration sociale et économique). Certaines prévisions font état d’environ 25.000 demandes qui devront être introduites entre le 15 septembre et le 15 décembre de cette année. La lenteur des décisions politiques traduit la difficulté de trancher dans cet épineux dossier des régularisations, une difficulté qui trouve partiellement son origine dans la méconnaissance de ses conséquences économiques et des préjugés qui en découlent. Que sait-on au juste de ces effets ? C’est la question abordée dans ce numéro de Regards économiques. L’article commence par souligner que le débat sur les régularisations est qualitativement proche du débat général sur l’immigration légale. Bien qu’elle se différencie de la politique d’immigration légale et non sélective, une politique de régularisation ou d’amnistie engendre des coûts et des bénéfices de même nature, mais d’ampleur moindre, dans la mesure où les sans papiers participent déjà au marché du travail et bénéficient déjà de certaines prestations sociales. En outre, quand on considère une période de temps plus longue, les débats sur l’immigration légale et la régularisation se rejoignent : toute régularisation entraîne une migration connexe via le regroupement familial et les effets de réseaux. Les effets de l’immigration et de la régularisation de travailleurs illégaux ont été davantage étudiés aux Etats-Unis qu’en Europe. Cette limite et la piètre connaissance des caractéristiques des populations séjournant illégalement sur le territoire belge rendent difficile une évaluation précise des effets de l’immigration et d’une régularisation sur la population résidente et sur l’économie belge. Les études internationales pointent toutefois en direction d’effets quantitativement faibles de l’immigration légale en matière d’emploi, de finances publiques et de salaire. Les études qui ont analysé ensemble ces trois différents effets concluent que l’effet favorable sur les finances publiques domine l’effet négatif sur l’emploi et les salaires de sorte que toutes les générations et toutes les catégories de natifs ont modestement bénéficié de l’afflux migratoire (aux Etats-Unis et en France). Notre analyse démontre que les effets d’une régularisation sont de même nature mais d’ampleur moindre. Dans l’état actuel des connaissances, il est raisonnable de penser que la régularisation en Belgique n’entraînera que des effets mineurs sur le revenu net des travailleurs natifs. Le seul véritable groupe à risque est celui des natifs les moins qualifiés. Ce sont eux qui pourraient subir des conséquences négatives sur le marché du travail, du moins dans un premier temps. Néanmoins, dans le cas où les sans papiers ont un taux d’emploi illégal important, ces conséquences sont vraisemblablement minimes, même à court terme. En outre, les effets éventuellement négatifs doivent aller en s’amenuisant au fur et à mesure que le temps passe et que les nouveaux arrivés se lancent dans des activités productives. Une manière d’accélérer cette transition est de promouvoir à bon escient la flexibilité du marché du travail et la mobilité des travailleurs. Dans ce contexte, nombre d’opinions apparaissent guidées par des arguments essentiellement idéologiques et des clichés peu robustes, voire profondément inexacts. Le cliché selon lequel les sans papiers vont prendre le travail des natifs ne résiste pas aux études existantes. Celui qui voit dans l’immigré une sangsue vidant les caisses de la sécurité sociale est manifestement erroné; l’immigration a une contribution plutôt positive aux finances publiques, et cela d’autant plus que le flux migratoire permet de rajeunir en permanence la population.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Tranche de réseau"

1

Patry, Jean-Luc. "Intégration sur tranche d'une architecture massivement parallèle tolérant les défauts de fin de fabrication." Phd thesis, Grenoble INPG, 1992. http://tel.archives-ouvertes.fr/tel-00341630.

Full text
Abstract:
Cette thèse présente des méthodes et outils de conception de systèmes integres sur tranche entière (wafer scale intégration). L'application traitée (dans le cadre d'un projet européen esprit) est une architecture constituée d'un réseau 2d de 6720 processeurs (pe) monobits, destinée au traitement d'image de bas niveau. Pour tolérer les défauts de fin fabrication, une approche hiérarchisée a été implantée. Au niveau sous-système, une technique de redondance figee a consiste a implanter une colonne de pes de réserve, destines a remplacer les pes défaillants. Au niveau tranche entière, une technique de construction d'une cible maximale n'utilisant que des sous-systèmes s'appuient sur l'implantation d'un réseau de commutateurs permettant d'éviter les sous-systèmes défaillants. Une architecture originale des réseaux de commutateurs contrôle a partir des plots externes et des algorithmes efficaces de définition et construction du réseau opérationnel constituent les points forts de cette thèse
APA, Harvard, Vancouver, ISO, and other styles
2

Luu, Quang Trung. "Dynamic Control and Optimization of Wireless Virtual Networks." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG039.

Full text
Abstract:
Le découpage du réseau est une technologie clé des réseaux 5G, grâce à laquelle les opérateurs de réseaux mobiles peuvent créer des tranches de réseau indépendantes. Chaque tranche permet à des fournisseurs d'offrir des services personnalisés. Comme les tranches sont opérées sur une infrastructure de réseau commune gérée par un fournisseur d'infrastructure, il est essentiel de développer des méthodes de partage efficace des ressources. Cette thèse adopte le point de vue du fournisseur d'infrastructure et propose plusieurs méthodes de réservation de ressources pour les tranches de réseau. Actuellement, les chaines de fonctions appartenant à une tranche sont déployées séquentiellement sur l'infrastructure, sans avoir de garantie quant à la disponibilité des ressources. Afin d'aller au-delà de cette approche, nous considérons dans cette thèse des approches de réservation des ressources pour les tranches en considérant les besoins agrégés des chaines de fonctions avant le déploiement effectif des chaines de fonctions. Lorsque la réservation a abouti, les chaines de fonctions ont l'assurance de disposer de suffisamment de ressources lors de leur déploiement et de leur mise en service afin de satisfaire les exigences de qualité de service de la tranche. La réservation de ressources permet également d'accélérer la phase d'allocation de ressources des chaines de fonctions
Network slicing is a key enabler for 5G networks. With network slicing, Mobile Network Operators (MNO) create various slices for Service Providers (SP) to accommodate customized services. As network slices are operated on a common network infrastructure owned by some Infrastructure Provider (InP), efficiently sharing the resources across various slices is very important. In this thesis, taking the InP perspective, we propose several methods for provisioning resources for network slices. Previous best-effort approaches deploy the various Service Function Chains (SFCs) of a given slice sequentially in the infrastructure network. In this thesis, we provision aggregate resources to accommodate slice demands. Once provisioning is successful, the SFCs of the slice are ensured to get enough resources to be properly operated. This facilitates the satisfaction of the slice quality of service requirements. The proposed provisioning solutions also yield a reduction of the computational resources needed to deploy the SFCs
APA, Harvard, Vancouver, ISO, and other styles
3

Hurat, Philippe. "APLYSIE : un circuit neuro-mimétique : réalisation et intégration sur tranche." Phd thesis, Grenoble INPG, 1989. http://tel.archives-ouvertes.fr/tel-00332382.

Full text
Abstract:
Un algorithme récurrent de la phase de reconnaissance d'un réseau mono couches de Hopfield a été implante. Le problème lie à l'interconnexion complète des neurones a été implantée sur une architecture systolique 2d ou chaque processeur représente une interaction neurone/neurone. Un circuit intégré de 16 neurones, soit 256 synapses, a été réalisé en technologie CMOS. Un tel circuit permet d'effectuer plus d'un demi milliard d'opérations synaptiques par seconde
APA, Harvard, Vancouver, ISO, and other styles
4

Ferraz, Fernando. "Territorialité, techniques et réseau urbain au Brésil : le transit d'une terre en transe." Paris 1, 2006. http://www.theses.fr/2006PA010585.

Full text
Abstract:
La thèse interprète le Brésil à partir de ses flux. Elle essaye de comprendre comment nous sommes arrivés à mettre en relation territorialité, techniques et réseau urbain au Brésil. Elle mobilise volontairement une transversalité disciplinaire. Elle comprend la philosophie comme un 'constructivisme immatériel' de la 'critique du présent' et prétend être en même temps théorico-conceptuelle et historico-critique. Cette thèse est divisée en six chapitres suivis de 'considérations finales'. Le premier chapitre explique la méthode philosophique adoptée; le deuxième établit la périodicité historique retenue; dans le troisième, le concept de 'dispositif de fluidité' est développé; le quatrième chapitre étudie la construction idéologique de \' état-nation brésilien par l’intelligentsia; le cinquième analyse le processus d'industrialisation du pays entre 1890 et 1960, et le sixième propose une analyse de certains types de flux au Brésil. Les 'considérations finales' ont pour but d' arriver au problème de la constitution du réseau de villes au Brésil.
APA, Harvard, Vancouver, ISO, and other styles
5

Domas, Jérémie. "Valorisation de sables issus de boues de curage des réseaux d'assainissementbTexte imprimé : exemple en remblayage de tranchée." Marne-la-vallée, ENPC, 1999. http://www.theses.fr/1999ENPC9933.

Full text
Abstract:
Actuellement la production française des boues de curage issues des réseaux d'assainissement est d'environ 800 000 tonnes/an de matière sèche - cette étude vise à démontrer d'une part que les caractéristiques géotechniques du matériau étudie étaient acceptables pour une utilisation en remblai de chaussée, d'autre part que les caractéristiques environnementales de ce sable sont compatibles pour la mise en contact avec le milieu naturel
APA, Harvard, Vancouver, ISO, and other styles
6

Song, Jinyan. "Capteurs optiques intégrés basés sur des lasers à semiconducteur et des résonateurs en anneaux interrogés en intensité." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00811402.

Full text
Abstract:
Ce travail de thèse porte sur la conception et la réalisation de capteurs optiques ultracompacts et sensibles utilisant le mode d'interrogation en intensité pour la détection d'analytes chimiques et biologiques. Deux approches, l'intégration hybride et l'intégration monolithique, ont été explorées durant cette thèse. Après un descriptif des outils d'analyse et de conception de guides d'onde et de micro résonateurs en anneaux, le manuscrit présente l'intégration hybride d'un laser Fabry-Perot en semiconducteur III-V avec un résonateur en anneau basé sur du matériau SOI. Le laser Fabry-Perot à faible coût fonctionnant en multimode longitudinal a été utilisé comme peigne de référence pour le résonateur en anneau en contact avec un échantillon liquide. L'effet Vernier a été implanté dans le système de détection en utilisant le mode d'interrogation en intensité. La largeur spectrale étroite du laser avec sa densité de puissance élevée ont permis d'obtenir un capteur de plus haute sensitivité en comparaison avec le capteur en double anneaux réalisé précédemment. Une étude numérique d'un capteur composé d'un laser Fabry-Perot et deux résonateurs en anneaux permettant de compenser la fluctuation de température a été ensuite présentée. Concernant l'intégration monolithique, l'interface entre oxyde et non-oxyde après l'oxydation de AlGaAs a été étudiée au Central de Technologies du LPN/CNRS. Un phénomène d'oxydation verticale de GaAs ou AlGaAs avec une faible teneur en aluminium activée par une couche voisine oxydée de AlGaAs avec une forte teneur en aluminium a été identifié expérimentalement. Afin de limiter l'oxydation verticale et de réduire la rugosité des interfaces, des guides d'onde basés respectivement sur une structure intégrant un super-réseau et sur une structure standard ont été fabriqués et caractérisés. L'impact de l'hydrogène sur l'activation du processus d'oxydation de GaAs ou AlGaAs avec une faible teneur en Al a été mis en évidence. Enfin, ce manuscrit décrit la réalisation et la caractérisation d'un laser Fabry-Perot fonctionnant en mode TM. Ce laser constitue une brique important vers l'intégration monolithique d'un capteur extrêmement sensible.
APA, Harvard, Vancouver, ISO, and other styles
7

Gigout, Sylvain. "Synchronisation des réseaux neuronaux dans l' épilepsie du lobe temporal chez l' homme et l' épilepsie-absences chez l' animal : rôle des jonctions communicantes." Paris 6, 2005. http://www.theses.fr/2005PA066506.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Salhab, Nazih. "Resource provisioning and dynamic optimization of Network Slices in an SDN/NFV environment." Thesis, Paris Est, 2020. http://www.theses.fr/2020PESC2019.

Full text
Abstract:
Pour offrir le haut débit mobile amélioré, les communications massives et critiques pour l'Internet des objets, la cinquième génération (5G) des réseaux mobiles est déployée à nos jours, en se basant sur plusieurs catalyseurs: le réseau d'accès radio nuagique (C-RAN), les réseaux programmables (SDN), et la virtualisation des fonctions réseaux (NFV). Le C-RAN décompose la nouvelle génération Node-B (gNB) en: i) tête radio distante (RRH), ii) unité digitale (DU), et iii) unité centrale (CU), appelée aussi unité cloud ou collaborative. Les DU et CU implémentent la base bande (BBU) tout en utilisant les huit options du split du front-haul pour une performance affinée. La RRH implémente la circuiterie extérieure pour la radio. Le SDN permet la programmation du comportement du réseau en découplant le plan de contrôle du plan utilisateur tout en centralisant la gestion des flux en un nœud de contrôle dédié. La NFV, d'autre part, utilise les technologies de virtualisation pour lancer les fonctions réseaux virtualisées (FRV) sur des serveurs conventionnels du marché. SDN et NFV permettent la partition du C-RAN, réseaux de transport et cœur en tant que tranches définies comme des réseaux virtuels et isolés de bout en bout conçus pour couvrir des exigences spécifiques aux différentes cas d’utilisations. L'objectif principal de cette thèse est de développer des algorithmes de provisionnement des ressources (unité de traitement centrale (CPU), mémoire, énergie, et spectre) pour la 5G, tout en garantissant un emplacement optimal des FRV dans une infrastructure nuagique. Pour achever ce but ultime, on adresse l'optimisation des ressources et d'infrastructure dans les trois domaines des réseaux mobiles: le cœur de réseau 5G (5GC), le C-RAN et les contrôleurs SDN. En tant qu’une première contribution, nous formulons la décharge du 5GC en tant qu'une optimisation sous contraintes ciblant plusieurs objectifs (coût de virtualisation, puissance de traitement, et charge du réseau) pour faire les décisions optimales et avec la plus faible latence. On optimise l'utilisation de l'infrastructure réseau en termes de capacité de traitement, consommation d'énergie et de débit, tout en respectant les exigences par tranche (latence, fiabilité, et capacité, etc.). Sachant que l'infrastructure est assujettie à des évènements fréquents tels que l'arrivée et le départ des utilisateurs/dispositifs, les changements continuels du réseau (reconfigurations, et défauts inévitables), nous proposons l'optimisation dynamique moyennant la technique de Branch, Cut and Price (BCP), en discutant les effets de ces objectifs sur plusieurs métriques. Notre 2ème contribution consiste à optimiser le C-RAN par un regroupement dynamique des RRH aux BBU (DU, CU). D’une part, nous proposons ce regroupement pour optimiser le débit en down-link. D’autre part, nous proposons la prédiction du power Head-room (PHR), sur le lien hertzien pour optimiser le débit en up-link. Dans notre troisième contribution, nous adressons l'orchestration des tranches réseaux 5G à travers le contrôleur C-RAN défini par logiciel en utilisant des approches de ML pour: la classification des exigences de performance, la prédiction des ratios de tranchage, le contrôle d'admission, le séquencement, et la gestion adaptative des ressources. En se basant sur des évaluations exhaustives moyennant notre prototype 5G basé sur OpenAirInterface, et en utilisant une pile de performance intégrée, nous montrons que nos propositions dépassent les stratégies connexes en termes de rapidité d'optimisation, des coûts de virtualisation et de débit
To address the enhanced mobile broadband, massive and critical communications for the Internet of things, Fifth Generation (5G) of mobile communications is being deployed, nowadays, relying on multiple enablers, namely: Cloud Radio Access Network (C-RAN), Software-Defined Networking (SDN) and Network Function Virtualization (NFV).C-RAN decomposes the new generation Node-B into: i) Remote Radio Head (RRH), ii) Digital Unit (DU), and iii) Central Unit (CU), also known as Cloud or Collaborative Unit.DUs and CUs are the two blocks that implement the former 4G Baseband Unit (BBU) while leveraging eight options of functional splits of the front-haul for a fine-tuned performance. The RRH implements the radio frequency outdoor circuitry. SDN allows programming network's behavior by decoupling the control plane from the user plane and centralizing the flow management in a dedicated controller node. NFV, on the other hand, uses virtualization technology to run Virtualized Network Functions (VNFs) on commodity servers. SDN and NFV allow the partitioning of the C-RAN, transport and core networks as network slices defined as isolated and virtual end-to-end networks tailored to fulfill diverse requirements requested by a particular application. The main objective of this thesis is to develop resource-provisioning algorithms (Central Processing Unit (CPU), memory, energy, and spectrum) for 5G networks while guaranteeing optimal provisioning of VNFs for a cloud-based infrastructure. To achieve this ultimate goal, we address the optimization of both resources and infrastructure within three network domains: 5G Core Network (5GC), C-RAN and the SDN controllers. We, first formulate the 5GC offloading problem as a constrained-optimization to meet multiple objectives (virtualization cost, processing power and network load) by making optimal decisions with minimum latency. We optimize the usage of the network infrastructure in terms of computing capabilities, power consumption, and bitrate, while meeting the needs per slice (latency, reliability, efficiency, etc.). Knowing that the infrastructure is subject to frequent and massive events such as the arrival/departure of users/devices, continuous network evolution (reconfigurations, and inevitable failures), we propose a dynamic optimization using Branch, Cut and Price, while discussing objectives effects on multiple metrics.Our second contribution consists of optimizing the C-RAN by proposing a dynamic mapping of RRHs to BBUs (DUs and CUs). On first hand, we propose clustering the RRHs in an aim to optimize the downlink throughput. On second hand, we propose the prediction of the Power Headroom (PHR), to optimize the throughput on the uplink.We formulate our RRHs clustering problem as k-dimensional multiple Knapsacks and the prediction of PHR using different Machine Learning (ML) approaches to minimize the interference and maximize the throughput.Finally, we address the orchestration of 5G network slices through the software defined C-RAN controller using ML-based approaches, for all of: classification of performance requirements, forecasting of slicing ratios, admission controlling, scheduling and adaptive resource management.Based on extensive evaluations conducted in our 5G experimental prototype based on OpenAirInterface, and using an integrated performance management stack, we show that our proposals outperform the prominent related strategies in terms of optimization speed, computing cost, and achieved throughput
APA, Harvard, Vancouver, ISO, and other styles
9

Arora, Sagar. "Cloud Native Network Slice Orchestration in 5G and Beyond." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS278.

Full text
Abstract:
La virtualisation des fonctions réseau (NFV) est le pilier fondateur de l'architecture 5G basée sur les services. La NFV a débuté en 2012, avec les fonctions de réseau virtuelles (VNF) basées sur les machines virtuelles (VM). Les conteneurs sont devenus une technologie alternative de conditionnement intéressante pour la virtualisation des fonctions réseau. Le conteneur est léger en termes de consommation de ressources ce qui améliore son temps d'instanciation. Outre les fonctions de réseau, la conteneurisation peut être un outil prometteur pour les applications multi-access edge computing (MEC) qui abritent des services exigeants à faible latence. La rareté des ressources à la périphérie du réseau exige des technologies qui utilisent efficacement les ressources de calcul, de stockage et de mise en réseau. La conteneurisation est censée être utilisée dans le cadre des principes fondamentaux de la conception d'applications cloud-native, une architecture basée sur des microservices à couplage lâche, d'une évolutivité à la demande et d'une résilience élevée. La flexibilité et l'agilité des conteneurs peuvent certainement profiter au découpage du réseau 5G en tranches,ces derniers reposent fortement sur NFV et MEC. Le concept de découpage du réseau permet de créer des réseaux logiques isolés au-dessus du même réseau physique. Une tranche de réseau peut avoir des fonctions de réseau dédiées, partagées entre plusieurs tranches. En effet, l'orchestration des tranches de réseau nécessite une interaction avec de multiples orchestrateurs de domaines technologiques: l'accès radio, le transport, le réseau central et l'informatique périphérique. Le changement de paradigme consistant à utiliser des principes de conception d'applications cloud-natives a créé des défis pour les systèmes d'orchestration existants et les normes NFV et MEC de l'ETSI. Ces derniers ont été conçus pour gérer des fonctions de réseau basées sur des machines virtuelles. Ils sont donc limités dans leur approche de la gestion d'une fonction de réseau cloud-native. Par le présent manuscrit, nous examinons les normes existantes de l'ETSI NFV, de l'ETSI MEC et des orchestrateurs de services/tranches de réseau, nous proposons de résoudre les défis liés à l'orchestration de tranches de réseau multi-domaines cloud-native. Pour cela, nous proposons tout d'abord un service d'information sur le réseau radio (RNIS) MEC qui a la capacité de fournir des informations radio au niveau de l'abonné dans un environnement NFV. Deuxièmement, nous fournissons un algorithme d'allocation et de placement dynamique des ressources (DRAP) pour placer les services réseau cloud-natives en tenant compte de leur matrice de coût et de disponibilité. Troisièmement, en combinant NFV, MEC et Network Slicing, nous proposons un nouveau mécanisme d'orchestration de tranches MEC (LeSO) pour surmonter les défis liés à l'orchestration de tranches MEC. Quatrièmement, le mécanisme proposé offre un modèle de déploiement de tranches de réseau qui permet de multiples possibilités de conception d'applications MEC. Ces possibilités ont été étudiées plus en détails pour comprendre l'impact de l'architecture de conception microservice sur la disponibilité et la latence de l'application. Enfin, tous ces travaux sont combinés pour proposer une nouvelle approche d'orchestration de tranches légères Cloud-native (CLiSO) étendant le précédant mécanisme d'orchestration de tranches légères de bord (LeSO). Cette nouvelle approche offre un modèle de tranche de réseau agnostique sur le plan technologique et orienté déploiement. La solution a été évaluée de manière approfondie en orchestrant les fonctions réseau du conteneur OpenAirInterface sur des plateformes de cloud public et privé. Les résultats expérimentaux montrent que la solution proposée a des empreintes de ressources plus faibles que les orchestrateurs existants et prend moins de temps pour orchestrer les tranches de réseau
Network Function Virtualization (NFV) is the founding pillar of 5G Service Based Architecture. It has the potential to revolutionize the future mobile communication generations. NFV started long back in 2012 with Virtual-Machine (VM) based Virtual Network Functions (VNFs). The use of VMs raised multiple questions because of the compatibility issues between VM hypervisors and their high resource consumption. This made containers to be an alternative network function packaging technology. The lightweight design of containers improves their instantiation time and resource footprints. Apart from network functions, containerization can be a promising enabler for Multi-access Edge Computing (MEC) applications that provides a home to low-latency demanding services. Edge computing is one of the key technology of the last decade, enabling several emerging services beyond 5G (e.g., autonomous driving, robotic networks, Augmented Reality (AR)) requiring high availability and low latency communications. The resource scarcity at the edge of the network requires technologies that efficiently utilize computational, storage, and networking resources. Containers' low-resource footprints make them suitable for designing MEC applications. Containerization is meant to be used in the framework of cloud-native application design fundamentals, loosely coupled microservices-based architecture, on-demand scalability, and high resilience. The flexibility and agility of containers can certainly benefit 5G Network Slicing that highly relies on NFV and MEC. The concept of Network slicing allows the creation of isolated logical networks on top of the same physical network. A network slice can have dedicated network functions or its network functions can be shared among multiple slices. Indeed, network slice orchestration requires interaction with multiple technological domain orchestrators, access, transport, core network, and edge computing. The paradigm shift of using cloud-native application design principles has created challenges for legacy orchestration systems and the ETSI NFV and MEC standards. They were designed for handling virtual machine-based network functions, restricting them in their approach to managing a cloud-native network function. The thesis examines the existing standards of ETSI NFV, ETSI MEC, and network service/slice orchestrators. Aiming to overcome the challenges around multi-domain cloud-native network slice orchestration. To reach the goal, the thesis first proposes MEC Radio Network Information Service (RNIS) that can provide radio information at the subscriber level in an NFV environment. Second, it provides a Dynamic Resource Allocation and Placement (DRAP) algorithm to place cloud-native network services considering their cost and availability matrix. Third, by combining NFV, MEC, and Network Slicing, the thesis proposes a novel Lightweight edge Slice Orchestration framework to overcome the challenges around edge slice orchestration. Fourth, the proposed framework offers an edge slice deployment template that allows multiple possibilities for designing MEC applications. These possibilities were further studied to understand the impact of the microservice design architecture on application availability and latency. Finally, all this work is combined to propose a novel Cloud-native Lightweight Slice Orchestration (CLiSO) framework extending the previously proposed Lightweight edge Slice Orchestration (LeSO) framework. In addition, the framework offers a technology-agnostic and deployment-oriented network slice template. The framework has been thoroughly evaluated via orchestrating OpenAirInterface container network functions on public and private cloud platforms. The experimental results show that the framework has lower resource footprints than existing orchestrators and takes less time to orchestrate network slices
APA, Harvard, Vancouver, ISO, and other styles
10

Matoussi, Salma. "User-Centric Slicing with Functional Splits in 5G Cloud-RAN." Electronic Thesis or Diss., Sorbonne université, 2021. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2021SORUS004.pdf.

Full text
Abstract:
Le réseau d’accès radio (RAN) 5G vise à faire évoluer de nouvelles technologies couvrant l’infrastructure Cloud, les techniques de virtualisation et le réseau défini par logiciel (SDN). Des solutions avancées sont introduites pour répartir les fonctions du réseau d’accès radio entre des emplacements centralisés et distribués (découpage fonctionnel) afin d’améliorer la flexibilité du RAN. Cependant, l’une des préoccupations majeures est d’allouer efficacement les ressources RAN, tout en prenant en compte les exigences hétérogènes des services 5G. Dans cette thèse, nous abordons la problématique du provisionnement des ressources Cloud RAN centré sur l’utilisateur (appelé tranche d’utilisateurs ). Nous adoptons un déploiement flexible du découpage fonctionnel. Notre recherche vise à répondre conjointement aux besoins des utilisateurs finaux, tout en minimisant le coût de déploiement. Pour surmonter la grande complexité impliquée, nous proposons d’abord une nouvelle implémentation d’une architecture Cloud RAN, permettant le déploiement à la demande des ressources, désignée par AgilRAN. Deuxièmement, nous considérons le sous-problème de placement des fonctions de réseau et proposons une nouvelle stratégie de sélection de découpage fonctionnel centrée sur l’utilisateur nommée SPLIT-HPSO. Troisièmement, nous intégrons l’allocation des ressources radio. Pour ce faire, nous proposons une nouvelle heuristique appelée E2E-USA. Dans la quatrième étape, nous envisageons une approche basée sur l’apprentissage en profondeur pour proposer un schéma d’allocation temps réel des tranches d’utilisateurs, appelé DL-USA. Les résultats obtenus prouvent l’efficacité de nos stratégies proposées
5G Radio Access Network (RAN) aims to evolve new technologies spanning the Cloud infrastructure, virtualization techniques and Software Defined Network capabilities. Advanced solutions are introduced to split the RAN functions between centralized and distributed locations to improve the RAN flexibility. However, one of the major concerns is to efficiently allocate RAN resources, while supporting heterogeneous 5G service requirements. In this thesis, we address the problematic of the user-centric RAN slice provisioning, within a Cloud RAN infrastructure enabling flexible functional splits. Our research aims to jointly meet the end users’ requirements, while minimizing the deployment cost. The problem is NP-hard. To overcome the great complexity involved, we propose a number of heuristic provisioning strategies and we tackle the problem on four stages. First, we propose a new implementation of a cost efficient C-RAN architecture, enabling on-demand deployment of RAN resources, denoted by AgilRAN. Second, we consider the network function placement sub-problem and propound a new scalable user-centric functional split selection strategy named SPLIT-HPSO. Third, we integrate the radio resource allocation scheme in the functional split selection optimization approach. To do so, we propose a new heuristic based on Swarm Particle Optimization and Dijkstra approaches, so called E2E-USA. In the fourth stage, we consider a deep learning based approach for user-centric RAN Slice Allocation scheme, so called DL-USA, to operate in real-time. The results obtained prove the efficiency of our proposed strategies
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography