Academic literature on the topic 'Identification sans marquage'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Identification sans marquage.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Identification sans marquage"

1

Hussek, Agnes, Cleo Graf, and Klaus Hackländer. "Are ear notches an effective tool for monitoring individual rhino?" Pachyderm 60 (November 10, 2019): 55–66. http://dx.doi.org/10.69649/pachyderm.v60i.34.

Full text
Abstract:
Notching of rhino ears is a common method for distinguishing free-ranging individuals, as the species often lacks unique marks or patterns. However, there are no data available on the reliability of rhino identification using this method. We conducted a field study with 107 participants at the Southern African Wildlife College to test the visibility of different ear notch positions from five distance points in bush and open habitats. Results show that correct identification rates at 20 m between observer and rhino were only 6 % in the bush and 23 % in the open habitat. Without the use of binoculars, no correct identification was seen at 30 m distance in the bush and at 65 m in the open habitat. The notching positions we tested differed in terms of accuracy of detection. This allowed us to draw conclusions about which positions should be favoured to optimise identification. Relationships between recorded observer skills, environmental factors, the use of binoculars, and rate of successful identification of ear notches were tested by using generalized linear models. The outcomes of this study suggest that ear notching alone does not allow for reliable identification of rhino individuals from even relatively short distances. We recommend that other artificial marking methods and natural distinguishing marks should be investigated further and could be combined with modern tracking technologies. Le marquage par l’entaille des oreilles des rhinocéros est une méthode communément utilisée pour distinguer les individus à l’état libre. Cependant, il n’y a aucune donnée disponible en ce qui concerne la fiabilité de cette méthode pour identifier les rhinocéros. Nous avons mené une étude sur le terrain comprenant 107 participants au Southern African Wildlife College pour tester la visibilité des différentes positions d’entailles aux oreilles à cinq distances différentes en zones arbustives et ouvertes. Les résultats indiquent que les taux d’identification à une distance de 20m entre l’observateur et le rhinocéros étaient de seulement 6% dans les zones arbustives et de 23% dans les zones ouvertes. Sans l’usage de jumelles, aucune identification positive n’a pu se faire au delà de 30m de distance dans les zones arbustives et au delà de 65m dans les zones ouvertes. La position des entailles influence la précision d‘identification. Ceci nous a permis d’arriver à des conclusions en ce qui concerne les positions idéales pour optimiser l’identification. La corrélations entre les compétences des observateurs, les facteurs environnementaux, l’usage de jumelles, et le taux d’itentification positive des entailles aux oreilles ont été analysés en utilisants des modèles linéaires généralisés. Les résultats de cette étude suggèrent que le marquage par l’entaille aux oreilles à lui seul ne permet pas l’identification fiable des individus même à relativement faible distance. Nous recommandons que la recherche d’autres méthodes de marquage artificiel et l’usage de marques distinctives naturelles soient poussés plus loin et puissent être associés à d’autres technologies modernes de repérage.
APA, Harvard, Vancouver, ISO, and other styles
2

Doelman, James. "Circulation of the late Elizabethan and Early Stuart Epigram." Renaissance and Reformation 41, no. 1 (January 1, 2005): 59–73. http://dx.doi.org/10.33137/rr.v41i1.9072.

Full text
Abstract:
Alors que l'épigramme en tant que genre littéraire puise à des sources chirographiques, sa brièveté propre à sa pratique à la Renaissance, a souvent entraîné un glissement vers une diffusion orale, manuscrite et imprimée. À cette même époque, l'épigramme était marquée par une tension entre l'inspiration de son origine littéraire classique et ses contenus domestiques et souvent vulgaires. Certains épigrammistes des plus ambitieux, tels que John Harington, John Owen et Ben Jonson, ont tenté de contrôler la circulation de leurs &#339uvres, et de se présenter comme des auteurs du même type que Martial. Ils ont résisté au mode plus libre de la diffusion orale, et ont davantage estimé la plus grande stabilité du livre imprimé comme médium, ce dernier semblant promettre à leurs poèmes, éphémères individuellement, une durable réputation littéraire. Néanmoins, leurs épigrammes font parfois preuve d’une influence de la tradition de la plaisanterie vulgaire. Le mode de diffusion des épigrammes politiques et prophétiques est par ailleurs assez différent. Ils se développent surtout oralement en raison de leur contenu controversé, sans identification d’auteur, et considéré plutôt comme «ce que toute personne dirait».
APA, Harvard, Vancouver, ISO, and other styles
3

Giguère, Hélène. "« Un quart Gitan »." Anthropologie et Sociétés 33, no. 2 (February 23, 2010): 255–72. http://dx.doi.org/10.7202/039307ar.

Full text
Abstract:
Les Gitans espagnols forment une minorité culturelle aux sources métissées, forcée à l’assimilation jusqu’à la fin du XVIIIe siècle. Des emprunts mutuels marquent leurs relations avec la société espagnole. La multiplicité des origines de la population majoritaire de Jerez a influencé « l’intégration » des Gitans dans cette ville espagnole marquée par leur concentration importante et le discours sur « l’entremêlement » identitaire (entreverado est l’expression vernaculaire). Cette composition sociale spécifique alimente une hésitation à reconnaître l’identité culturelle gitane au profit d’un entremêlement culturel anonyme menant à une identification citoyenne. Le métissage et la multiplicité des emprunts mutuels complexifient la reconnaissance de la spécificité de l’identité gitane, qu’elle soit métissée ou non. En réponse à une quête d’exotisme chez soi et rééquilibrant les « oublis » forcés d’un patrimoine identitaire, le « sang » est parcellarisé de façon à privilégier ses lignées de façon contextuelle. Comme dans les contextes coloniaux, le discours sur la quantification du sang intervient dans la validation des identités personnelles et collectives. Cet article ancre les variations et modalités du métissage dans ses dimensions culturelle, sociale, politique et citoyenne en parcourant les expériences et les discours sur la gitanité et le gitanisme.
APA, Harvard, Vancouver, ISO, and other styles
4

Giordana, B. "L’écriture de la créativité au cœur du trouble psychiatrique, William Styron." European Psychiatry 28, S2 (November 2013): 37. http://dx.doi.org/10.1016/j.eurpsy.2013.09.091.

Full text
Abstract:
Célèbre écrivain américain à succès, William Styron connut en 1985 une sévère dépression qui le conduisit aux portes du suicide. Dans Face aux ténèbres (1990) [2], il fit le récit de sa plongée dans cette « indicible douleur », ainsi que des étapes de sa guérison. Nous proposons, depuis une perspective phénoménologique, une relecture de ce texte poignant afin d’y saisir, au-delà des repérages symptomatiques, une forme singulière d’être-au monde. Pour Tellenbach, la personnalité pré-dépressive relève d’une configuration anthropologique bien particulière, le Typus Melancholicus, marquée par son attachement exacerbé à l’ordre, son souci aigu du devoir accompli et des responsabilités, sa relation symbiotique à autrui [3]. Kraus réinterprète cette disposition de l’être comme structure de sur-identification aux rôles sociaux, reposant elle-même sur une identité égoique insuffisamment constituée. De cette constitution sur-identifiante procède, d’une part, un style de comportement qualifié par Kraus d’hypernomique, soit dans un rapport non distancié par rapport aux normes sociales, l’identité égoique déficiente ne permettant pas la flexibilité habituellement requise dans la réalisation des rôles sociaux [1]. D’autre part, les situations de déclenchement des épisodes dépressifs peuvent désormais être comprises comme situations de pertes de rôles ou comme débordement de l’individu par des attentes normatives sursollicitantes et conflictuelles. Il s’agit donc d’une dialectisation de la notion de déviance, la non-adaptation à la norme s’opposant à une adaptation excessive sans distance ni autonomie. Dans ce contexte, une thérapie centrée sur la problématique identitaire vise à soulager le patient de ses auto-exigences élevées par l’adoption d’identités de transition, et à valoriser le développement de performances égoiques.
APA, Harvard, Vancouver, ISO, and other styles
5

Pensieroso, Luca, and Michel De Vroey. "Focus 25 - juin 2020." Regards économiques, July 16, 2020. http://dx.doi.org/10.14428/regardseco2020.06.04.01.

Full text
Abstract:
En décembre 2019, les membres de Rethinking Economics Belgium (dorénavant REB) ont diffusé un rapport intitulé “Dix ans après la crise, faut-il changer la formation des futurs économistes ?”. Ce rapport présente les résultats d’une enquête statistique réalisée auprès d’un échantillon d’étudiants bacheliers en sciences économiques en Fédération Wallonie-Bruxelles entre 2016 et 2017. Ses auteurs y déplorent que l’enseignement des sciences économiques est presque exclusivement centré sur l'approche néoclassique alors que celle-ci, selon eux, souffre d'un biais en faveur de l'idéologie néolibérale. Stigmatisant cette situation comme un manque de pluralisme, le rapport avance un certain nombre de propositions de réforme de l’enseignement et de la recherche en économie. Nous accueillons ce rapport comme une belle opportunité de disputatio et c'est dans cet esprit que notre note a été écrite. Bien que selon nous le rapport comporte plusieurs défauts méthodologiques, notre intention dans cette note est de nous limiter à l’essentiel en proposant une interprétation différente du phénomène que les auteurs du rapport appellent la «domination de la théorie néoclassique» et en défendant l’idée que la question du pluralisme en économie gagne à être abordée d’une manière différente. Une domination néoclassique ? L’approche néoclassique est un courant de la pensée économique qui vit le jour dans le dernier quart du 19ème siècle. Ses piliers sont la notion d'équilibre et la théorie subjective de la valeur, enracinée dans une perspective d'individualisme méthodologique et fondée sur les concepts d’utilité marginale et de productivité marginale*. Les auteurs du document de REB rattachent sa “domination” dans l’enseignement au fait qu’elle existe “quasiment sans partage” dans la recherche. En d’autres termes, elle y occupe le statut de “mainstream”. La notion de mainstream se rencontre fréquemment dans la littérature économique – ainsi que dans le rapport de REB – mais elle est souvent définie d’une manière vague. Dans un article récent (De Vroey et Pensieroso 2020), nous avançons la thèse que cette notion n’est intéressante que si on lui donne un fondement méthodologique au lieu de se contenter de la rattacher à une simple prépondérance statistique. Dans cette vue, une situation de mainstream n’existe que si un consensus s’établit sur des critères méthodologiques considérés comme des sine qua non pour une bonne pratique scientifique. Dans notre article, nous montrons que trois types de situations se sont succédés au cours du 20ème siècle. La première est un état d’absence de mainstream. Elle a perduré jusque dans les années 1980. Ces dernières ont vu l’émergence d’un mainstream en économie théorique, qu’il s’agisse de travaux de pure théorie ou de travaux combinant théorie et mesure empirique. C’est la seconde situation. Elle a émergé à la croisée de deux évolutions distinctes. La première est l’extension à différents champs de l’économie de trois principes méthodologiques déjà en vigueur en théorie des jeux et en microéconomie: (i) le rôle-pivot donné au concept d’équilibre, (ii) la modélisation mathématique et (iii) le caractère micro-fondé de l’analyse, à savoir l’exigence que les fonctions de demande et offre agrégées soient explicitement dérivées des règles de comportement optimisateur suivies par les agents économiques. Une telle extension s’est produite plus ou moins simultanément et d’une manière non-coordonnée dans différentes disciplines comme par exemple la macroéconomie et l’économe industrielle. A son origine, on trouve une insatisfaction quant aux principes méthodologiques en vigueur antérieurement. La seconde évolution est le phénomène général de certification qui a graduellement imprégné nos sociétés pour prendre son plein essor avec l’émergence de l’internet – l’attribution de brevets de qualité et la construction d’échelles appréciatives permettant de classer des objets ou des expériences diverses en fonction de leur excellence. Dans ce contexte, les revues scientifiques, en plus de leur rôle d’instrument de diffusion de la recherche, ont commencé à fonctionner comme organes de certification, séparant les articles respectant les standards méthodologiques de ceux qui ne les respectent pas et sont dès lors écartés. L’effet de cette double transformation se résume en quelques chiffres ayant trait au contenu des articles publiés dans les quatre principales revues économiques (American Economic Review, Econometrica, Journal of Political Economy et Quarterly Journal of Economics) dans les périodes 1970-1990 et 1990-2010. Alors que les articles respectant les trois choix méthodologiques précités représentaient 38 % du total des articles publiés en 1970, en 1990 ils en représentaient 67 % et en 2010 69 %. Nous interprétons ces chiffres comme offrant une indication claire de l’émergence d’un mainstream dans le champ théorique entre 1970 et 1990. Par contre durant cette période, aucun consensus méthodologique n’existait en ce qui concernait les travaux faisant une contribution exclusivement empirique, l’économie appliquée. Mais ce qui n’était pas vrai en 1990 l’est devenu au cours de la première décennie de ce siècle. La situation actuelle se caractérise par la montée en puissance de l’‘économie expérimentale’, ce terme étant entendu dans un sens large comme le commun dénominateur (i) des expériences comportementales de laboratoire, (ii) des randomized controlled trial et (iii) des ‘expériences naturelles’.** Le premier de ces courants résulte de l’adoption par un groupe d’économistes de protocoles expérimentaux propres aux psychologues cognitifs dans le but de justifier le remplacement de l’hypothèse de comportement optimisateur par des hypothèses plus réalistes. Le succès venant, cette démarche est maintenant connue sous le nom d’‘économie comportementale’. Le second découle de l’adoption par des économistes du développement de techniques expérimentales en usage en épidémiologie et centrées sur une confrontation entre groupe de traitement et de groupe de contrôle (cfr. Parienté 2016). Quant aux études d’expériences naturelles, elles consistent à exploiter «des situations où les forces de la nature ou des politiques étatiques semblent avoir conspiré pour produire un environnement proche de celui sur lequel les randomized trials se penchent» (Angrist and Krueger 2001 : 73). Les méthodes adoptées en économie expérimentale au sens large ont eu un impact majeur sur l’économie appliquée. Une nouvelle manière de la concevoir, marquant une triple rupture par rapport à l’économie appliquée traditionnelle, s’est dégagée. On y observe :i) Une émancipation à l’égard des impératifs méthodologiques imposés par les économètres théoriques. Le recours à des outils économétriques plus simples en est la conséquence (cfr. Angrist et Peschke 2017).ii) Une adhésion à la ‘révolution causale’ avec, comme corolaire, un résultat de rétrécissement de l’objet d’étude. L’explanandum est une question concrète et spécifique ayant souvent une incidence politique immédiate; l’explanans est une cause unique. A titre d’exemple, citons l’étude de Dal et Krueger (2002) visant à répondre la question, le fait d’être diplômé d’une université prestigieuse au minerval élevé plutôt que d’une université moins prestigieuse et moins chère génère-t-il une différence de revenu significative une vingtaine d’année après l’obtention du diplôme ?iii) Le recours à des instruments statistiques - telles que les variables instrumentales, la stratégie de double différence ou les discontinuités de régression - visant à éliminer les biais de sélection ou d’omissions et dont les règles de bon usage font l’objet d’un consensus à l’intérieur de la communauté des économistes appliqués. Le mainstream théorique se voit ainsi complété par un mainstream empirique fondé sur des règles méthodologiques régissant chacune de trois composantes de l’économie expérimentale. De nos jours, il y a donc deux manières d’appartenir au mainstream. La première résulte d’une définition méthodologique de ce qui est considéré être une bonne pratique théorique, la seconde d’une définition méthodologique de ce qui est considéré être une bonne pratique empirique. Notre analyse sur le débat ouvert par le rapport REB a deux retombées. En premier lieu, on peut se demander si mainstream et approche néoclassique coïncident. A strictement parler, cela n’est pas le cas. D’abord, la théorie des jeux est une composante du mainstream qui ne peut être identifiée à l’approche néoclassique. Ensuite, il y a des travaux néoclassiques qui se trouvent être exclus du mainstream - la théorie autrichienne, parce qu’elle n’adopte pas le langage mathématique, et les études néoclassiques qui n’adoptent pas la démarche de micro-fondements. Enfin, en 2010, la part du mainstream empirique dans le total des deux mainstreams représentait 22 %. Or, par définition, aucun des articles qui en font partie n’appartient à l’approche néoclassique. Le tableau contemporain est donc bien plus riche et varié que ce qui est dépeint dans le rapport REB. La seconde question qui se pose du fait de l’existence d’un mainstream en économie porte sur l’interprétation de cette réalité. Il est clair que les tenants des approches écartées se sentent frustrés d’être exclus du mainstream avec toutes les conséquences professionnelles qui en découlent. Ils auront donc tendance à voir cette situation comme une régression par rapport à une situation antérieure plus satisfaisante car marquée du sceau du pluralisme. Par contre, les économistes dont les travaux s’inscrivent à l’intérieur des critères définissant le mainstream peuvent avancer l’idée que l’unification de la discipline autour de critères méthodologiques clairs et nets est un signe de progrès. En conséquence, la question de savoir si l’existence d’un mainstream est une régression ou la marque d’un progrès ne peut recevoir de réponse univoque. Une absence de pluralisme ? Trois stratégies s’offrent aux tenants de choix méthodologiques exclus du mainstream. La première (et la plus intéressante à nos yeux) est de centrer leur énergie sur le développement de leur paradigme préféré, comme si de rien n’était, dans le but d’en démontrer la fécondité explicative. La seconde vise à convaincre les tenants du mainstream que les choix de base sur lesquels ils reposent sont inadéquats. A notre avis, les chances de succès de cette seconde stratégie sont minimes si, comme nous le pensons, les révolutions théoriques trouvent en général leurs origines dans des faiblesses mises en avant par une critique interne. La troisième consiste à affirmer que l’existence même d’un mainstream est condamnable parce qu’il s’agit d’un manque de pluralisme. Comme ce point de vue occupe une place centrale dans le document REB, il mérite d’être passé au crible. A nos yeux, la justification qui en est donnée n’est pas convaincante. Le fait que l’exigence de pluralisme est d’une importance primordiale dans le domaine de la démocratie politique et de l’information n’implique pas que ceci soit aussi le cas pour la connaissance scientifique. Comme nous l’avons déjà évoqué plus haut, une unification paradigmatique peut être interprétée comme une marque de progrès. Il reste qu’en économie, peut-être plus que dans d’autres sciences, la question du pluralisme doit être posée. Mais, à nos yeux, elle doit l’être dans d’autres termes. Depuis Adam Smith jusqu’à nos jours, les économistes ont débattu de la meilleure manière d’organiser la société dans sa dimension économique. L’objet d’étude de la science économique est donc éminemment politique. D’ailleurs, les travaux économiques débouchent souvent, sinon toujours, sur des conclusions de politique économique. L’enjeu sous-jacent porte sur le rôle respectif de l’Etat et des forces de marchés dans le fonctionnement de l’économie. Schématiquement, trois visions du capitalisme sont en présence : une vision pleinement libérale (le laissez faire d’Hayek ou de Friedman), une vision marxiste et une vision que l’on peut qualifier de «libéralisme mitigé» ou de «libéralisme raisonné». Cette dernière, associée notamment au nom de Keynes, consiste en une défense de l’économie de marché allant de pair avec la réalisation qu’elle peut rencontrer des échecs de fonctionnement auxquels seules des interventions étatiques sont à même de remédier. L’accusation de manque de pluralisme serait pertinente s’il s’avérait que le mainstream théorique, tel que nous l’avons cerné dans la section précédente, est intrinsèquement partisan d’une seule vision, le plein libéralisme par exemple. Dans un article, publié dans les Regards Économiques en 2018, nous avons démontré que cela n’est pas le cas en nous centrant sur trois épisodes de l’histoire des théories économiques - une comparaison du cadre conceptuel de Marx et des économistes classiques, l’utilisation de la théorie walrasienne pour justifier le socialisme et les controverses entre keynésiens et monétaristes. Dans cette perspective, tant la théorie classique que la théorie néoclassique sont un langage qui peut être mis au service de visions du capitalisme différentes. L’existence d’un mainstream en économie n’est donc pas synonyme d’un manque de pluralisme en économie. * Cfr. De Vroey et Pensieroso (2018) pour plus de détails.** En témoignent les prix Nobel en économie décernés à D. Kahneman et V. Smith en 2002, à A. Roth en 2012, à R. Shiller en 2013, à R. Thaler en 2017 et à A. Banerjee, E. Duflo and M. Kremer en 2019. Références: Angrist, J. and A. Krueger (2001), “Instrumental Variables and the Search for Identification: From Supply and Demand to Natural Experiments.” Journal of Economic Perspectives. 15, No. 4 : 69-85. Angrist, J. and J-S. Pischke. 2009. Mostly Harmless Econometrics. An Empiricist's Companion. Princeton (N. J.) and Oxford, Princeton University Press. Dale, S. and Al Krueger. 2002. “Estimating the Payoff to Attending a More Selective College: An Application of Selection on Observables and Unobservables.” Quarterly Journal of Economics 117: 1491–1527. De Vroey M. et L. Pensieroso (2020), “Mainstream Economics. Its Rise and Evolution”, mimeo. De Vroey M. et L. Pensieroso (2018), “La question du pluralisme en économie. Une mise en perspective”, Regards Économiques, numéro 137. Parienté W. (2016), “Mesurer l'effet des politiques publiques : l'essor des évaluations aléatoires”, Regards Économiques, numéro 124. Rethinking Economics Belgium (2019), 10 ans après la crise : faut-il changer la formation des futur·e·s économistes ?
APA, Harvard, Vancouver, ISO, and other styles
6

Cortado, Thomas Jacques. "Maison." Anthropen, 2020. http://dx.doi.org/10.17184/eac.anthropen.131.

Full text
Abstract:
Le champ sémantique de la maison imprègne nos perceptions individuelles et collectives du monde comme peu d’autres. Il suffit de songer à la distinction très marquée entre house et home en anglais, si difficile à retranscrire dans nos langues latines, ou encore aux usages politiques de l’expression « chez nous » en français. Ce champ renvoie à des lieux souvent riches d’affects, de mémoires et de désirs, qui nous définissent en propre et orientent nos perceptions du temps et de l’espace. Ils font d’ailleurs la matière des poètes, peintres et autres artistes. À cet égard, lorsque nous perdons notre maison, nous ne nous retrouvons pas seulement privés d’un bien utile et échangeable, d’un « logement », nous voyons aussi s’effacer une partie de nous-mêmes et le centre à partir duquel s’organise notre existence quotidienne. En dépit de sa densité, les anthropologues ont d’abord rabattu le thème de la maison sur ceux de la famille et de la culture matérielle. Pour Lewis H. Morgan, la forme de l’espace domestique ne fait qu’épouser un certain type d’organisation familiale; elle en est, pour ainsi dire, le révélateur (1877). À la « hutte » des « sauvages » correspond donc la famille consanguine, qui autorise le mariage entre cousins, alors qu’à la « maison commune » des « barbares » correspond la famille patriarcale, autoritaire et polygame. Les « maisons unifamiliales » de l’Occident contemporain renvoient à la famille nucléaire, fondement de la « civilisation ». Quant aux anthropologues davantage intéressés par l’architecture et les artefacts domestiques, leurs analyses consistent souvent à expliquer leur genèse en accord avec une vision évolutionniste du progrès technique ou par des facteurs géographiques. On aurait pu s’attendre à ce que l’invention de l’ethnographie par Bronislaw Malinowski ouvre de nouvelles perspectives. Avec elle, c’est en effet un certain rapport à la maison qui se met à définir le métier d’anthropologue, celui-là même qu’exemplifie la célèbre représentation de ce dernier sous sa tente, immortalisée dans la première planche photographique des Argonautes du Pacifique occidental. Pour autant, la maison reste un objet secondaire par rapport à l’organisation de la vie familiale, le vrai principe de la société. Elle est avant tout le lieu où le couple choisit de résider après le mariage et ce choix se plie à certaines « règles », dont on peut assez facilement faire l’inventaire, grâce aux liens de filiation entre les membres du couple et les autres résidents (Murdock 1949). On parlera, par exemple, de résidence « matrilocale » quand le couple emménage chez les parents de l’épouse, « patrilocale » dans le cas inverse. Quant aux sociétés occidentales, où le couple forme habituellement un nouveau ménage, on parlera de résidence « néolocale ». La critique de ces règles permet, dans les années 1950 et 1960, d’étendre la réflexion sur la maison. Face aux difficultés concrètes que pose leur identification, Ward Goodenough suggère d’abandonner les taxinomies qui « n’existent que dans la tête des anthropologues » et de « déterminer quels sont, de fait, les choix résidentiels que les membres de la société étudiée peuvent faire au sein de leur milieu socioculturel particulier » (1956 : 29). Autrement dit, plutôt que de partir d’un inventaire théorique, il faut commencer par l’étude des catégories natives impliquées dans les choix résidentiels. La seconde critique est de Meyer Fortes, qui formule le concept de « groupe domestique », « unité qui contrôle et assure l’entretien de la maison (householding and housekeeping unit), organisée de façon à offrir à ses membres les ressources matérielles et culturelles nécessaires à leur conservation et à leur éducation » (1962 : 8). Le groupe domestique, à l’instar des organismes vivants, connaît un « cycle de développement ». En Europe du sud, par exemple, les enfants quittent le domicile parental lorsqu’ils se marient, mais y reviennent en cas de rupture conjugale ou de chômage prolongé ; âgés, les parents souvent cherchent à habiter près de leurs enfants. En conséquence, « les modèles de résidence sont la cristallisation, à un moment donné, d’un processus de développement » (Fortes 1962 : 5), et non l’application statique de règles abstraites. La maison n’est donc pas seulement le lieu où réside la famille, elle est nécessaire à l’accomplissement de tâches indispensables à la reproduction physique et morale des individus, telles que manger, dormir ou assurer l’éducation des nouvelles générations (Bender 1967). Cette conception du groupe domestique rejoint celle qu’avait formulée Frédéric Le Play un siècle auparavant : pour l’ingénieur français, il fallait placer la maison au centre de l’organisation familiale, par la défense de l’autorité paternelle et la transmission de la propriété à un héritier unique, de façon à garantir la stabilité de l’ordre social (1864). Elle exerce de fait une influence considérable sur les historiens de la famille, en particulier ceux du Cambridge Group for the History of Population and Social Structure, dirigé par Peter Laslett (1972), et sur les anthropologues (Netting, Wilk & Arnould 1984), notamment les marxistes (Sahlins 1976). En Amérique latine, de nombreuses enquêtes menées dans les années 1960 et 1970 mettent en évidence l’importance des réseaux d’entraide, attirant ainsi l’attention sur le rôle essentiel du voisinage (Lewis 1959, Lomnitz 1975). La recherche féministe explore quant à elle le caractère genré de la répartition des tâches au sein du groupe domestique, que recoupe souvent la distinction entre le public et le privé : à la « maîtresse de maison » en charge des tâches ménagères s’oppose le « chef de famille » qui apporte le pain quotidien (Yanagisako 1979). Un tel découpage contribue à invisibiliser le travail féminin (di Leonardo 1987). On remarquera néanmoins que la théorie du groupe domestique pense la maison à partir de fonctions établies par avance : ce sont elles qui orientent l’intérêt des anthropologues, plus que la maison en elle-même. C’est à Claude Lévi-Strauss que l’on doit la tentative la plus systématique de penser la maison comme un principe producteur de la société (1984 ; 2004). Celui-ci prend pour point de départ l’organisation sociale de l’aristocratie kwakiutl (Amérique du Nord), telle qu’elle avait été étudiée par Franz Boas : parce qu’elle présentait des traits à la fois matrilinéaires et patrilinéaires, parce qu’elle ne respectait pas toujours le principe d’exogamie, celle-ci défiait les théories classiques de la parenté. Lévi-Strauss propose de résoudre le problème en substituant le groupe d’unifiliation, tenu pour être au fondement des sociétés dites traditionnelles, par celui de « maison », au sens où l’on parlait de « maison noble » au Moyen Âge. La maison désigne ainsi une « personne morale détentrice d’un domaine, qui se perpétue par transmission de son nom, de sa fortune et de ses titres en ligne réelle ou fictive » (Lévi-Strauss 1984 : 190). Plus que les règles de parenté, ce sont les « rapports de pouvoir » entre ces « personnes morales » qui déterminent les formes du mariage et de la filiation : celles-ci peuvent donc varier en accord avec les équilibres politiques. Lévi-Strauss va ensuite généraliser son analyse à un vaste ensemble de sociétés apparemment cognatiques, qu’il baptise « sociétés à maison ». Celles-ci se situeraient dans une phase intermédiaire de l’évolution historique, « dans un état de la structure où les intérêts politiques et économiques tend[ent] à envahir le champ social » (Lévi-Strauss 1984 : 190). Très discuté par les spécialistes des sociétés concernées, ce modèle a eu la grande vertu de libérer l’imagination des anthropologues. Critiquant son évolutionnisme sous-jacent, Janet Carsten et Stephen Hugh-Jones (1995) proposent toutefois d’approfondir la démarche de Lévi-Strauss, en considérant la maison comme un véritable « fait social total ». L’architecture, par exemple, ne relève pas que d’une anthropologie des techniques : celle de la maison kabyle, analysée par Pierre Bourdieu, met en évidence un « microcosme organisé selon les mêmes oppositions et mêmes homologies qui ordonnent tout l’univers » (1972 : 71), un parallélisme que l’on retrouve dans de nombreux autres contextes socioculturels (Hamberger 2010). Fondamentalement, la maison relève d’une anthropologie du corps. Dans son enquête sur la parenté en Malaisie, Carsten souligne le rôle joué par la cuisine ou le foyer, en permettant la circulation des substances qui assurent la production et la reproduction des corps (alimentation, lait maternel, sang) et leur mise en relation, ce que Carsten appelle la « relationalité » (relatedness) (1995). Fait dynamique plutôt que statique, la maison nous met directement au contact des processus qui forment et reforment nos relations et notre personne : son étude permet donc de dépasser la critique culturaliste des travaux sur la parenté; elle nous montre la parenté en train de se faire. Il convient aussi de ne pas réduire la maison à ses murs : celle-ci le plus souvent existe au sein d’un réseau. Les enquêtes menées par Émile Lebris et ses collègues sur l’organisation de l’espace dans les villes d’Afrique francophone proposent ainsi le concept de « système résidentiel » pour désigner « un ensemble articulé de lieux de résidences (unités d’habitation) des membres d’une famille étendue ou élargie » (Le Bris 1985 : 25). Ils distinguent notamment entre les systèmes « centripètes », « de concentration en un même lieu d’un segment de lignage, d’une famille élargie ou composée » et les systèmes « centrifuges », de « segmentation d’un groupe familial dont les fragments s’installent en plusieurs unités résidentielles plus ou moins proches les unes des autres, mais qui tissent entre elles des liens étroits » (Le Bris 1985 : 25). Examinant les projets et réseaux que mobilise la construction d’une maison dans les quartiers noirs de la Bahia au Brésil, les circulations quotidiennes de personnes et d’objets entre unités domestiques ainsi que les rituels et fêtes de famille, Louis Marcelin en déduit lui aussi que la maison « n’est pas une entité isolée, repliée sur elle-même. La maison n’existe que dans le contexte d’un réseau d’unités domestiques. Elle est pensée et vécue en interrelation avec d’autres maisons qui participent à sa construction – au sens symbolique et concret. Elle fait partie d’une configuration » (Marcelin 1999 : 37). À la différence de Lebris, toutefois, Marcelin part des expériences individuelles et des catégories socioculturelles propres à la société étudiée : une « maison », c’est avant tout ce que les personnes identifient comme tel, et qui ne correspond pas nécessairement à l’image idéale que l’on se fait de cette dernière en Occident. « La configuration de maisons rend compte d’un espace aux frontières paradoxalement floues (pour l'observateur) et nettes (pour les agents) dans lequel se déroule un processus perpétuel de création et de recréation de liens (réseaux) de coopération et d'échange entre des entités autonomes (les maisons) » (Marcelin 1996 : 133). La découverte de ces configurations a ouvert un champ de recherche actuellement des plus dynamiques, « la nouvelle anthropologie de la maison » (Cortado à paraître). Cette « nouvelle anthropologie » montre notamment que les configurations de maisons ne sont pas l’apanage des pauvres, puisqu’elles organisent aussi le quotidien des élites, que ce soit dans les quartiers bourgeois de Porto au Portugal (Pina-Cabral 2014) ou ceux de Santiago au Chili (Araos 2016) – elles ne sont donc pas réductibles à de simples « stratégies de survie ». Quoiqu’elles se construisent souvent à l’échelle d’une parcelle ou d’un quartier (Cortado 2019), ces configurations peuvent très bien se déployer à un niveau transnational, comme c’est le cas au sein de la diaspora haïtienne (Handerson à paraître) ou parmi les noirs marrons qui habitent à la frontière entre la Guyane et le Suriname (Léobal 2019). Ces configurations prennent toutefois des formes très différentes, en accord avec les règles de filiation, bien sûr (Pina-Cabral 2014), mais aussi les pratiques religieuses (Dalmaso 2018), le droit à la propriété (Márquez 2014) ou l’organisation politique locale – la fidélité au chef, par exemple, est au fondement de ce que David Webster appelle les « vicinalités » (vicinality), ces regroupements de maisons qu’il a pu observer chez les Chopes au sud du Mozambique (Webster 2009). Des configurations surgissent même en l’absence de liens familiaux, sur la base de l’entraide locale, par exemple (Motta 2013). Enfin, il convient de souligner que de telles configurations ne sont pas, loin de là, harmonieuses, mais qu’elles sont généralement traversées de conflits plus ou moins ouverts. Dans la Bahia, les configurations de maisons, dit Marcelin, mettent en jeu une « structure de tension entre hiérarchie et autonomie, entre collectivisme et individualisme » (Marcelin 1999 : 38). En tant que « fait social total », dynamique et relationnel, l’anthropologie de la maison ne saurait pourtant se restreindre à celle de l’organisation familiale. L’étude des matérialités domestiques (architecture, mobilier, décoration) nous permet par exemple d’accéder aux dimensions esthétiques, narratives et politiques de grands processus historiques, que ce soit la formation de la classe moyenne en Occident (Miller 2001) ou la consolidation des bidonvilles dans le Sud global (Cavalcanti 2012). Elle nous invite à penser différents degrés de la maison, de la tente dans les camps de réfugiés ou de travailleurs immigrés à la maison en dur (Abourahme 2014, Guedes 2017), en passant par la maison mobile (Leivestad 2018) : pas tout à fait des maisons, ces formes d’habitat n’en continuent pas moins de se définir par rapport à une certaine « idée de la maison » (Douglas 1991). La maison relève aussi d’une anthropologie de la politique. En effet, la maison est une construction idéologique, l’objet de discours politiquement orientés qui visent, par exemple, à assoir l’autorité du père sur la famille (Sabbean 1990) ou à « moraliser » les classes laborieuses (Rabinow 1995). Elle est également la cible et le socle des nombreuses technologiques politiques qui organisent notre quotidien : la « gouvernementalisation » des sociétés contemporaines se confond en partie avec la pénétration du foyer par les appareils de pouvoir (Foucault 2004); la « pacification » des populations indigènes passe bien souvent par leur sédentarisation (Comaroff & Comaroff 1992). Enfin, la maison relève d’une anthropologie de l’économie. La production domestique constitue bien sûr un objet de première importance, qui bénéficie aujourd’hui d’un regain d’intérêt. Florence Weber et Sybille Gollac parlent ainsi de « maisonnée » pour désigner les collectifs de travail domestique fondés sur l’attachement à une maison – par exemple, un groupe de frères et sœurs qui s’occupent ensemble d’un parent âgé ou qui œuvrent à la préservation de la maison familiale (Weber 2002, Gollac 2003). Dans la tradition du substantialisme, d’autres anthropologues partent aujourd’hui de la maison pour analyser notre rapport concret à l’économie, la circulation des flux monétaires, par exemple, et ainsi critiquer les représentations dominantes, notamment celles qui conçoivent l’économie comme un champ autonome et séparé (Gudeman et Riviera 1990; Motta 2013) – il ne faut pas oublier que le grec oikonomia désignait à l’origine le bon gouvernement de la maison, une conception qui aujourd’hui encore organise les pratiques quotidiennes (De l’Estoile 2014). Cycles de vie, organisation du travail domestique, formes de domination, identités de genre, solidarités locales, rituels et cosmovisions, techniques et production du corps, circulation des objets et des personnes, droits de propriété, appropriations de l’espace, perceptions du temps, idéologies, technologies politiques, flux monétaires… Le thème de la maison s’avère d’une formidable richesse empirique et théorique, et par-là même une porte d’entrée privilégiée à de nombreuses questions qui préoccupent l’anthropologie contemporaine.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Identification sans marquage"

1

Le, Galudec Joël. "lmagerie hyperspectrale infrarouge pour l'identification sans marquage de pathogènes sur milieu gélosé." Thesis, Université Grenoble Alpes, 2022. http://www.theses.fr/2022GRALS006.

Full text
Abstract:
L’industrie et le domaine de la santé sont demandeurs de moyens rapides et peu couteux pour l’identification de microorganismes. Des avantages pratiques et un coût réduit font de la culture en boite de Petri un outil omniprésent en microbiologie, mais l’observation des colonies microbiennes n’offre pas de diagnostic fiable sans validation par une analyse secondaire. Ces analyses, qu’il s’agisse de réactions chimiques, d’une PCR ou de spectrométrie de masse, demandent une préparation d’échantillon spécifique impliquant des coûts et des délais supplémentaires. C’est pourquoi plusieurs systèmes d’imagerie de boite ont déjà été expérimentés pour automatiser l’observation des cultures et proposer une identification directement sur la boite de Petri. Toutefois, ceux-ci se cantonnent jusqu’à présent au domaine du visible et du proche infrarouge (400 – 1000 nm), ce qui n’apporte des informations que sur le morphotype des colonies de micro-organismes et limite la précision d’identification.Cette thèse est consacrée à l’exploration d’un système d’imagerie multispectrale dans l’infrarouge moyen. Cette gamme de longueurs d’onde apporte des informations à la fois sur le morphotype et sur la composition chimique des colonies observées. Cette imagerie non destructive et sans marquage pourrait fournir une identification à l’espèce des colonies cultivées sur agar, tout en ouvrant la voie à de nouvelles applications. Un système expérimental, combinant des lasers à cascade quantique comme source lumineuse et une matrice de microbolomètres comme imageur, a permis l’acquisition d’images de colonies à neuf longueurs d’ondes comprises entre 5 et 8 µm. 2253 colonies appartenant à huit espèces de microorganismes communs ont ainsi été imagées. Pour l’une des espèces, Staphylococcus epidermidis, trois souches différentes ont été analysées pour tester la capacité du système en matière de typage.Après acquisition, plusieurs méthodes de classification d’image ont été testées pour aboutir à un taux d’identification correct moyen de 94.4 %
Industry and health care are demanding rapid and inexpensive means for microbial identification. Thanks to its low cost and practical advantages, Petri dish culture is a ubiquitous tool in microbiology, but the sole observation of microbial colonies does not offer a reliable diagnosis. Identification in itself depends on secondary analysis, such as chemical reactions, PCR or mass spectrometry, which require specific sample preparation, which involves additional costs and delays. That is why several dish imaging systems have already been tested to automate the observation of cultures and to propose an identification directly on the Petri dish. However, these systems are generally limited to the visible and near infrared range (400 - 1000 nm), which only provides information on the morphotype of the microorganism colonies and therefore limits the identification accuracy.This thesis focuses on the development of a multispectral imaging system in the mid-infrared. In this wavelength range, images provide information on both the morphotype and the chemical composition of the observed colonies. This non-destructive and label-free imaging could provide species identification of colonies grown on agar, while opening the way to new applications. An experimental system, combining quantum cascade lasers as a light source and a microbolometers array as an imager, allowed the acquisition of images of colonies at nine wavelengths between 5 and 8 µm. 2253 colonies belonging to eight species of common microorganisms were imaged. For one of the species, Staphylococcus epidermidis, three different strains were analyzed to test the typing capabilities of the system.After acquisition, several image classification methods were tested to obtain an average correct identification rate of 94.4%
APA, Harvard, Vancouver, ISO, and other styles
2

Burande, Clara. "Identification des substracts d'ASB2alpha, la sous-unité de spécificité d'une E3 ubiquitine ligase impliquée dans la différenciation hématopoïétique." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1639/.

Full text
Abstract:
La dégradation des protéines dépendante de l'ubiquitine est une voie de protéolyse contrôlée cruciale chez les Eucaryotes dont la spécificité est apportée par les E3 ubiquitine ligases impliquées dans la reconnaissance des protéines à polyubiquitinyler et donc dégradées par le protéasome. Au cours de ma thèse, j'ai développé une nouvelle stratégie d'identification de substrats d'E3 ubiquitine ligases par protéomique quantitative sans marquage, appliquée à l'étude d'ASB2alpha. La protéine ASB2alpha est la sous-unité de spécificité d'une E3 ubiquitine ligase exprimée dans les cellules hématopoïétiques capable d'induire la polyubiquitylation et donc la dégradation des filamines A et B (FLNa et FLNb). Après avoir démontré la pertinence de cette approche, nous avons mis en évidence la dégradation du troisième membre de la famille filamine, la FLNc. Cette nouvelle stratégie applicable à toutes les E3 ubiquitine ligases ciblant ses substrats au protéasome présente l'avantage d'être applicable à différents contextes physiologiques et de s'affranchir des difficultés rencontrées lors de l'utilisation des méthodes d'identification dites classiques. Par ailleurs, nous avons montré qu'ASB2alpha en induisant la dégradation des filamines, était un régulateur de la motilité cellulaire. De plus, nous avons établi les bases moléculaires de la reconnaissance de la FLNa par ASB2alpha. L'identification de leurs substrats et la caractérisation des mécanismes de leur reconnaissance apparaissent comme essentiels pour la compréhension de nombreux processus cellulaires et pathologiques
The ubiquitin-proteasome system is a central mechanism for controlled proteolysis that regulates numerous cellular processes in eukaryotes. E3 ubiquitin ligases are responsible for the specificity of this system. They provide platforms for binding specific substrates thereby coordinating their ubiquitination and subsequent degradation by the proteasome. We have developed a global proteomic strategy to identified E3 ubiquitin ligase substrates targeted to proteasomal degradation. The proof of principle of this strategy is provided by our results highlighting FLNa and FLNb as substrates of the ASB2alpha E3 ubiquitin ligase that is involved in hematopoiesis. Furthermore, we have shown that FLNc, the third member of the filamin family, is also a target of ASB2alpha. This study provides a new strategy for the identification of E3 ubiquitin ligase substrates that have to be degraded in physiologically relevant settings. We have also demonstrated that ASB2alpha, through degradation of FLNs, can regulate integrin-dependent cell motility. Moreover, structural and cell biology studies have unraveled the domain of ASB2α that is involved in the recruitment of its substrate, FLNa. This study has provided an original strategy to identify E3 ubiquitin ligase substrates targeted to degradation. Furthermore, our work has contributed to the understanding of the function and mechanisms of action of ASB2α in hematopoietic cells
APA, Harvard, Vancouver, ISO, and other styles
3

Jemfer, Charlotte. "Couplage SdFFF et UHF-DEP : Technologie innovante d'isolement et de caractérisation des CSC appliquée au diagnostic et à la thérapie du cancer colorectal." Electronic Thesis or Diss., Limoges, 2024. http://www.theses.fr/2024LIMO0112.

Full text
Abstract:
Les cellules souches cancéreuses (CSC) jouent un rôle central dans l’hétérogénéité cellulaire et la progression tumorale dans le cancer colorectal (CCR). Cependant, leur isolement est un défi en raison des méthodes classiques, basées sur le marquage fluorescent ou magnétique. Ces méthodes restent incertaines en raison de la plasticité des CSC, limitant ainsi leur utilité clinique. Dans cette étude, nous proposons un couplage innovant entre de tri cellulaire de fractionnement par couplage flux-force de sédimentation (SdFFF) et la méthode de détection par biocapteur à ultra-haute fréquence (UHF-DEP), toutes deux méthodes sans marquage. Cette approche a déjà montré son efficacité dans le cadre du glioblastome, et notre objectif est alors de démontrer son caractère universel et son application à d'autre types de cancer tel que le CCR. Ce couplage nécessite une adaptation instrumentale et méthodologique à la phase mobile des deux technologies, l'analyse fonctionnelle et phénotypique ainsi que pour la première fois une analyse transcriptomique à révéler que la SdFFF était capable d’isolée une sous population enrichie en CSC. Ces caractéristiques sont corrélées à des signatures électromagnétiques (SEM) spécifiques obtenue par le biocapteur UHF-DEP, démontrant ainsi l’efficacité du couplage SdFFF/UHF-DEP pour l'isolement et la caractérisation des CSC dans le CCR. Ces signatures étant corrélées non seulement à l'état de souchitude des populations, mais aussi à l'évolution des propriétés membranaires comme cela a été révélé par l'analyse transcriptomique.Pour approfondir l'intérêt de ce couplage, nous avons exploré son potentiel analyser les effets du 5-fluorouracile (5-FU, chimiothérapie clé dans le traitement du CCR), sur les sous-populations isolées. Ainsi nous avons comparé les SEM, et l’analyse transcriptomique de ces sous populations de CSC, dans le but d’identifier les modifications induites, ouvrant des possibilités d’applications en diagnostic et en suivi thérapeutique. Enfin, l'analyse de la SEM et du RNA-Seq d'une population cellulaire hétérogène traitée au 5-FU, triée puis caractérisée, a permis d'évaluer la capacité du couplage à identifier les cellules souches cancéreuses (CSC) résiduelles après traitement. Les résultats suggèrent une réduction de la population de CSC après traitement, soulignant le potentiel de cette approche pour évaluer l’efficacité thérapeutique et les changements induits par la chimiothérapie sur les CSC.Ces travaux démontrent le potentiel du couplage SdFFF/UHF-DEP en tant qu’outil de diagnostic et de personnalisation des traitements en oncologie, offrant des perspectives prometteuses pour une évaluation plus précise de la réponse thérapeutique et une optimisation des stratégies de traitement en fonction du profil cellulaire
Cancer stem cells (CSCs) play a central role in cellular heterogeneity and tumour progression in colorectal cancer (CRC). However, their isolation is a challenge using conventional methods based on fluorescent or magnetic labelling. These methods remain uncertain due to the plasticity of CSCs, thus limiting their clinical usefulness. In this study, we propose an innovative coupling between cell sorting fractionation by sedimentation flow-force coupling (SdFFF) and the ultra-high frequency biosensor detection method (UHF-DEP), both label-free methods. This approach has already demonstrated its effectiveness in glioblastoma, and our aim is to demonstrate its universality and its application to other types of cancer such as CRC. This coupling requires instrumental and methodological adaptation to the mobile phase of the two technologies. Functional and phenotypic analysis and, for the first time, transcriptomic analysis revealed that SdFFF was capable of isolating a CSC-enriched subpopulation. These characteristics are correlated with specific electromagnetic signatures (SEM) obtained by the UHF-DEP biosensor, thus demonstrating the effectiveness of the SdFFF/UHF-DEP coupling for the isolation and characterisation of CSCs in the CRC. These signatures correlate not only with the strain status of the populations, but also with changes in membrane properties, as revealed by transcriptomic analysis.To further explore the interest of this coupling, we explored its potential to analyse the effects of 5-fluorouracil (5-FU, a key chemotherapy in the treatment of CRC) on isolated sub-populations. We compared the SEM and transcriptomic analysis of these CSC sub-populations, with the aim of identifying the changes induced, opening up potential applications in diagnosis and therapeutic monitoring. Finally, SEM and RNA-Seq analysis of a heterogeneous cell population treated with 5-FU, sorted and then characterised, made it possible to assess the coupling's ability to identify residual cancer stem cells (CSCs) after treatment. The results suggest a reduction in the CSC population after treatment, underlining the potential of this approach for assessing therapeutic efficacy and the changes induced by chemotherapy on CSCs. This work demonstrates the potential of SdFFF/UHF-DEP coupling as a diagnostic and treatment personalisation tool in oncology, offering promising prospects for more accurate assessment of therapeutic response and optimisation of treatment strategies according to cell profile
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography