Les corpus et la recherche en terminologie et en traductologie[Record]

  • Marc Van Campenhoudt and
  • Rita Temmerman

…more information

  • Marc Van Campenhoudt
    Centre de recherche Termisti, Institut supérieur de traducteurs et interprètes, Haute École de Bruxelles, Bruxelles, Belgique
    mvc@termisti

  • Rita Temmerman
    Centrum voor Vaktaal en Communicatie, Toegepaste Taalkunde, Erasmushogeschool Brussel, Bruxelles, Belgique
    rita.temmerman@ehb.be.org

L’expression linguistique de corpus ou corpus linguistics semble relativement tardive au regard des liens profonds qui unissent texte et informatique. Elle semble émerger vers la fin des années 1970, sans que le lien avec la linguistique computationnelle soit nécessairement perçu comme un préalable. L’observation de l’usage réel, de la parole, est un fait qui lui est largement antérieur et les promoteurs d’un projet de l’ampleur du Trésor de la langue française ou, plus tard, ceux du Cobuild, n’ont pas attendu l’émergence d’un concept à la mode pour voir dans l’ordinateur un outil au service d’une linguistique descriptive. La linguistique de corpus, au sens où nous l’entendons de nos jours, est pourtant demeurée longtemps un espace confiné, fréquenté par les spécialistes de l’ingénierie linguistique et de la lexicométrie ou par des chercheurs travaillant dans le cadre de grands laboratoires, tel l’Institut national de la langue française à Nancy. Dans un univers demeuré trop longtemps – ou trop souvent – parallèle, celui de la traductologie ou des translation studies, l’ambition de mieux appréhender les caractéristiques linguistiques du travail du traducteur a très tôt conduit à exploiter également la puissance des ordinateurs pour aligner des textes traduits ou comparer l’écrit du traducteur et celui du rédacteur. Mais ici aussi, les difficultés d’accès à ce type d’outil ont longtemps tenu nombre de chercheurs à l’écart d’une approche systématique. La révolution de la micro-informatique a progressivement bouleversé l’univers de la recherche, rendant accessibles des outils jusqu’alors très coûteux et bien peu ergonomiques. Dès la fin des années 1980, des logiciels comme Micro-OCP (Oxford Concordance Program) permettaient au chercheur individuel de travailler sur ses propres corpus sans devoir maîtriser un langage informatique. À la même époque, le monde de la traduction professionnelle commençait déjà à découvrir les algorithmes d’alignement de corpus développés par les scientifiques et à mettre au point des « mémoires de traduction », désormais utilisées pour le meilleur comme pour le pire. Il faudra toutefois attendre le développement des autoroutes de l’information pour que l’accès facilité à d’énormes masses textuelles de qualité rende incontournables les méthodes d’une linguistique de corpus désormais indissociable de l’outil logiciel. Dans le même temps surgissait un écueil majeur : le risque de littéralement « se goinfrer » d’une nébuleuse de textes à la traçabilité incertaine, en faisant fi de tous les impératifs heuristiques d’une démarche scientifique bien pensée. Dans un mouvement de retour en arrière, il convient de se rappeler que dans le champ des études théoriques, l’usage des corpus a été longtemps mis sur la touche au nom de préceptes bien ancrés au sein d’écoles théoriques jusqu’alors dominantes, telle celle de Noam Chomsky. De même, en terminologie, les fondements théoriques de l’ « École de Vienne », tels que véhiculés par une simplification scolaire des travaux d’Eugen Wüster, de même que les pratiques normatives de l’aménagement linguistique ont conduit à largement négliger la réalité de l’usage et ses fondements sociologiques. Les recherches des vingt dernières années sur l’extraction de candidats-termes et un certain nombre d’études doctorales novatrices s’appuyant sur l’observation de faits de langue au sein de vastes corpus spécialisés ont mené à une large révision de l’approche dite « conceptuelle ». Une page est désormais tournée et l’intérêt fondamental des concordanciers, des aligneurs et autres outils de balisage est progressivement pris en compte dans les cursus universitaires, s’agissant d’initier à une réflexion de fond sur la langue, le dire et le traduire. Dans les départements de traduction, une tendance « professionnalisante » lourde voudrait toutefois que l’on diplôme des traducteurs ou des terminologues aptes à utiliser tel ou tel logiciel commercial, appelé pourtant à évoluer rapidement, …