Interfaces culturelles et linguistiques sur internet (2)

La roue à livres d’Augusto Ramelli

La roue à livres d’Augusto Ramelli

Nous verrons donc quelques outils spécifiquement conçus pour le langage et verrons quelles sont leurs caractéristiques spécifiques dans la mise en place de leurs conceptions entre l’articulation du texte et un environnement graphique via des interfaces. Il existe non pas un modèle mais bien plusieurs modèles. Nous ne ferons pas ici la typologie complète des approches en visualisation de l’information. Nous nous limiterons sur des dispositifs liés au langage. Sont donc exclus tout type de représentation de données cartographiques.
Nous allons analyser quatre types d’interfaces utilisant des mots contenue dans un environnement graphique pour structurer la navigation :
1 – la première et la plus simple est l’interface de type hypertexte
2 – la seconde est la représentation de type nuage de tags appelée encore folksonomie
3 – la troisième que l’on nomme carte heuristique
4 – et la dernière interface est la visualisation graphique interactive

1 – Si l’hypertexte peut-être considéré comme une interface archaïque au regard des autres types d’interface, elle reste toutefois un élément majeur dans la construction d’internet. Elle trouve une évolution dans un module à installer sur son navigateur. Il s’agit du plug-in Hyperwords. L’idée simple consiste à permettre à l’utilisateur par un simple clic de blogger, d’envoyer, traduire, copier, analyser, comparer, convertir, de rechercher sur le site Amazon, etc. Le mot ou la phrase qu’il aura sélectionné, ce à travers une suite de menus déroulants et de fenêtres. Par cette amplification du principe d’hypertexte, chaque mot devient un choix pour le lecteur, choix de le partager, de le traduire etc.

2 – Les nuages de tags ou folksonomie sont indissociables du web 2.0. Ces représentations de mots sont des termes adopté par les contributeurs de blogs, forum, wiki pour la classification de leurs ressources. Un nuage de tags joue sur la proximité visuel des mots en accordant une taille de police différente selon la popularité d’un concept, qui a fédéré plusieurs rattachements dans un site. La pertinence de cette approche peut induire en erreur l’utilisateur peu au fait de cette pratique. En effet, la présentation des nuages de tags, en général sur les côtés du site, n’est pas expliquée. La relation entre le producteur de l’article avec son tag qui lui est associé et la recherche d’un texte par le récepteur ne se fait ici qu’avec un ou quelques mots.

3 – La carte heuristique permet à tout à chacun d’organiser et de structurer ses connaissances autour de mots-clés reliés entre eux selon leur proximité sémantique ou des liens hiérarchiques entre différents concepts. L’avantage de cette interface tient dans le fait qu’il n’a que très peu d’instruction à suivre une fois le principe acquis et de pouvoir conceptualiser une idée avec juste quelques mots clés, l’articulation en phrase pouvant se faire ultérieurement pour les personnes peu à l’aise avec le langage. Les inconvénients de cette approche sont dans le choix des mots par l’utilisateur. En effet, en raison de la grande subjectivité des mots choisis, pour définir un concept, l’échange de carte heuristique peut poser un certain nombre de problèmes au niveau de l’interprétation entre plusieurs utilisateurs. Néanmoins, certains logiciels permettent d’établir et de partager en ligne des cartes heuristiques notamment Pearltrees.
Le site Pearltrees se propose donc d’élaborer l’organisation de l’interface sur un principe autocentré, c’est à dire la présentation de son profil puis tout autour s’agrègent les contributions des autres membres selon la proximité de sens d’un terme. On a donc un réseau social visuel par affinité de sens.

4 – La quatrième et dernière interface est du type dictionnaire sémantique. Il s’agit ici du site du laboratoire CRISCO 6 de l’université de Caen et des laboratoires CLLE-ERSS & IRIT. Sur le site du CRISCO, on peut visualiser l’espace sémantique d’un termes et la liste de ses synonymes. La représentation se fait selon 2 axes avec la distribution des synonymes de par et d’autres des deux axes.
Pour le projet Interface Prox, le mode de représentation de l’interface se fait en 3D, le terme choisie est relié aux autres synonymes dans un espaces à 3 dimensions où l’utilisateur peut faire tourner la représentation. On voit directement le réseaux sémantique du terme choisie par une modélisation géométrique du sens avec selon les propos des concepteurs : «une dynamique d’acquisition du général vers le particulier par raffinement et un raisonnement à granularité variable ce qui permet de faire chuter la complexité. L’un des objectifs est par exemple de mieux comprendre comment l’enfant acquiert et reproduit le lexique de sa langue maternelle, de quelques mots, puis quelques centaines, jusqu’à disposer du réseau lexical général d’un adulte.»
A travers ses 4 exemples d’interface, il me semble qu’il y a aujourd’hui sur internet une tentative de spacialisation du langage par de simples mots et qui finalement recouvre tout un corpus de textes épars. Aussi dans les exemples précèdant, on peut voir la place de chaque mot dans les quatre types d’interfaces :
1 – chaque mot devient interface et propose des actions prédéfinis pour que l’utilisateur lui même mette en relation un mot ou groupe de mots selon des actions prédéfinies
2 – chaque mot devient interface par une représentation graphique de la popularité du texte sous-jacent
3 – chaque mot est définie par les utilisateurs selon une proximité sociale ou par affinité d’intêret
4 – chaque mot est définie à l’avance par le concepteur et par le traitement des algorithmes, mais est donnée à l’utilisateur la possibilité de naviguer de façon très naturelle.

A travers cette brève analyse des quatres catégories, il me semble qu’un mot selon son contexte (le site, le design, l’interface), peut renvoyer à autre chose que sa définition propre. Il appelle aussi, et parce qu’il prend un sens différent selon le parcours de l’utilisateur (parcours personnel et parcours sur le réseau), à une appropriation ou à une exclusion de la polysémie du mot, car il faut tout saisir de suite par le graphique où chaque élément est défini à l’avance soit par les concepteurs, soit par les utilisateurs. Ainsi, la linéarité et la temporalité du texte laissent place à des systèmes spatiaux, dont la graphique nous communique dans le même temps les relations qui sous-tendent les mots, les tags avec le risque de ne prendre les mots que pour des icônes
laissant de côté la complexité et la richesse du langage.

On peut se poser aussi la question de la réalité sociolinguistique qui se cache derrière les mots ou groupes de mots présenté sur les différentes interfaces. Bernard Stiegler nous dit que «parler, c’est avant tout catégoriser» et que l’avènement du web 2 renforce les pratiques linguistiques fondée sur les savoirs ordinaires du langage et que le métalangage ne peut apparaître que «comme l’après-coup d’une pratique technicisée de ce langage». Ce métalangage est une production empirique générée par l’ensemble des acteurs du réseau et non seulement par des spécialistes. Aussi, il faut bien voir que ces activités de métalangage, c’est à dire le processus de grammatisation, sont conditionnées par des chercheurs, ingénieurs du monde informatique et des télécommunications. L’information et le langage se trouvent ainsi transformés par les nouvelles pratiques collaboratives du web dit social.

Laissez un commentaire