Le poste de travail 4.0

Des objets connectés à l’holacratie : les digital workplace nouveaux leviers du management en entreprise

dimanche 10 juin 2018

L’environnement de travail se transforme très significativement dans le secteur tertiaire avec l’arrivée massive des objets connectés dans un contexte sociétal où les pratiques du numérique se fondent de plus en plus sur la mobilité.

Pourquoi cette transformation induit-elle la nécessité de reconsidérer l’environnement numérique de travail mis à disposition des employés et comment l’entreprise va-t-elle devoir adapter sa stratégie numérique et son management ?

Des objets connectés à l’holacratie : les digital workplace nouveaux leviers du management en entreprise. C’est ce que je vous propose d’examiner dans cet ouvrage librement téléchargeable ci-dessous.

Sommaire :



Télécharger le livre complet au format PDF ici

Faut-il craindre l'uberisation de la fonction IT ?

jeudi 23 juin 2016


 

L'uberisation de la fonction IT est-elle possible? Qu'est ce qui dans l'évolution numérique pourrait faire que la DSI se verrait transformée à ce point?
Il y a des signes qui ont désormais valeur de symbole. De toute évidence ils tournent autour des concepts de processus, de service, de cloud, de sécurité et de performance. Comment ces signes font ils sens dans l'esprit de dirigeants qui les perçoivent dans un contexte où tout s'affole ? Il faut décoder.
Les multitudes prennent le pas et génèrent des forces considérables dans cette société du numérique. Qu'il s'agisse des forces d'imagination, des forces d'action ou encore des forces de spéculation. Mais a bien y regarder ces multitudes finissent toujours dans l'escarcelle des majors du domaine auquel elles s'attaquent. Car celles-ci ont une capacité financière telle, que les auteurs-génies de services réticulaires ne résistent pas aux offres parfois exorbitantes formulées en dollars.
D'un point de vue sémiotique, l'apparence donnée aux services à travers les « apps » influe nouvellement sur l'utilisateur. Immédiateté, gratuité , spontanéité, jetabilité, illimité sont des qualités de sentiment qui peuplent la priméité de l'uberisation. 
A croire que tout est si simple, il n'y a qu 'à cliquer ou tapoter sur l'écran tactile et le service est là, sans autre forme, directement venu du « market » ou du « store » et fourni à travers un engagement de service proposé systématiquement avant installation que l'on n'a pas d'autre choix d'accepter si l'on souhaite disposer de l'application.

 Quels sont les enjeux pour le DSI et quels sont ceux du dirigeant ? Et si l'essentiel relevait du marketing de la DSI?

Le DSI académique face à l'Ecole 3.0 : l'arbre du numérique cache la forêt de l'informatique

jeudi 1 octobre 2015



Avec l'avènement du service public du numérique éducatif, l'école est projetée dans une transformation qui bouscule les représentations et les postures. De la classe inversée à la formation ouverte à distance en passant pas les fédérations d'identités et les guichets de ressources numériques pédagogiques, le système scolaire doit faire face à une mutation sans précédent. Dans ce contexte de transformation, les DSI académiques doivent adapter leur action à un nouveau périmètre où les utilisateurs se chiffrent en millions et où les services sont par essence continus.

Nous tentons une fois de plus de poser un regard sémiotique sur ces changements et d'en examiner les impacts sur les DSI académiques.

L'école 3.0

La loi du 8 juillet 2013 pour la refondation de l’École de la République a instauré un service public du numérique éducatif. Le parlement français a fixé à ce nouveau service public l'ambition d'organiser une offre de services pédagogiques numériques à destination de l’ensemble de la communauté éducative avec pour objectif de développer des pratiques pédagogiques diversifiées en vue de renforcer le plaisir d’apprendre et d’aller à l’École, et de réduire les inégalités sociales et territoriales. Une autre ambition est de former les enseignants aux outils et ressources numériques dans la perspective d'une éducation renouvelée aux médias, à l’information et à l’usage responsable d’internet et des réseaux sociaux. Enfin un enjeu important est celui de favoriser l’implication des parents dans la scolarité de leurs enfants. L'objectif global de ce nouveau service est de permettre aux élèves de s’insérer dans la société en tant que citoyens et de fait dans la vie professionnelle.

En terme de représentations, cette réforme arrive par la loi. On imagine donc les nombreux dispositifs d'accompagnement à mettre en place pour que ces dispositions législatives prennent du sens dans les établissements scolaires y compris dans les écoles maternelles des zones rurales de l'hexagone et de l'outre-mer. La mission d'institution des concepts véhiculés par la transformation numérique et celle de leur traduction en actes pédagogiques sont de taille car les concepts en question sont maîtrisés de manière assez hétérogène, dans le corps enseignant notamment. On parlait de la littératie au milieu des années 2000...

En publiant son rapport intitulé « Jules Ferry 3.0 » en octobre 2014, à peine un peu plus d'un an après la promulgation de la loi, le conseil national du numérique indiquait les axes pour "bâtir une école créative et juste dans un monde numérique" . Ce rapport a suscité de nombreuses réactions sur la toile, les causes se situant essentiellement dans les bouleversements induits par la transposition des concepts de la société numérique à l'école. Dans le vocabulaire contemporain, on parle donc désormais d'école 3.0. Cette appellation nous pose forcément question car la notion d'école 2.0 a été lancée en décembre 2012, elle est donc déjà supplantée ! La communauté scolaire dispose-t-elle des signes interprétants lui permettant l’interprétation de ce passage de 1.0 à 2.0 et maintenant à 3.0 ?

Les représentations dont disposent les acteurs de terrain : les enseignants, les équipes de direction des établissements scolaires et les parents d 'élèves, trouvent leur fondement dans le factuel. C'est donc dans la secondéité, la catégorie sémiotique des faits et des existants, que le sens du numérique éducatif est produit. L'observation des changements de pratiques pour les uns, la possibilité qui est donnée de ces changements pour les autres donnent l'indication du degré réel de la transformation qui s'opère.

La transformation

Il faut donc commencer pas bien cerner ce qu'est cette école 3.0. La transformation numérique de l'école semble tenir à un challenge central qui est celui de sortir d'un apprentissage basé sur une posture magistrale de l'enseignant qui dispense un cours à des élèves dans une classe et dans le cadre d'un programme scolaire. On passerait d'un mode d'institutionnalisation des savoirs magistral à un mode dit « inversé » où l'on considère que les savoirs sont sur le réseau et que l'enseignant joue le rôle d'accompagnateur de l'élève dans son parcours cognitif en vue de la construction de ses connaissances. Il s'agit d'une réelle transformation de l'institution scolaire qui suppose d'amener les enseignants vers une rénovation de l'acte pédagogique et dans le même moment de faire évoluer l'école en tant non plus seulement qu'institution mais également en tant que lieu des apprentissages. Le vocable lieu est alors forcément à considérer dans une de ses acceptions : celle de l'immobilier à l'heure du numérique. Certes, là ne semble pas se situer l'enjeu premier, tout au moins en apparence et pourtant il y a bel et bien un changement à opérer pour rénover l'édifice, tout au moins une adaptation de ses espaces à la société digitale.

L'observation des pratiques du numérique au sein des corps enseignants nous éclaire sur le degré de mobilisation du numérique dans la pédagogie et fait ressortir que l'artefact digital est utilisé comme un levier de changement de la pratique avec les élèves uniquement dans une faible part des situations alors qu'il est largement utilisé pour préparer les cours par exemple voire dans une moindre mesure pour les dispenser.

A vrai dire, les perceptions de l'environnement numérique scolaire sont les déclencheurs des motivations nécessaires à la transformation. Les choses ne fonctionnent que dans un sens. L’enchaînement d'un certain nombre de réalités se fait en partant du potentiel technique disponible dans l’établissement scolaire et plus largement dans l’environnement professionnel de l'enseignant pour arriver à la modernisation du geste pédagogique selon une imbrication de conditions qui constituent les axes de développement vers la transformation numérique : équipements, formation, production de contenus, construction des savoirs en sont les quatre étapes successives. En effet, difficile d'imaginer l'introduction du numérique si la composante technologique n'est pas à disposition et totalement fonctionnelle au sens métier du terme.

En clair, et l’État français l'a mis en avant à travers son plan numérique, il est primordial de disposer du socle technique à la fois opérant, sécurisé et continu pour pouvoir envisager la transformation numérique de l'école sous l'angle pédagogique.

La convergence

Dans ce contexte les DSI des académies ont une responsabilité importante. Ils doivent être les acteurs du changement des représentations et pour cela ils doivent commencer par opérer leur propre transformation ou plus exactement celle de leur approche professionnelle.

En premier lieu dans la dimension symbolique. D'un point de vue sémiotique, le symbole se situe dans la tiercéité, le mode d'être de la loi sociale, de la convention, du concept. Les expériences du passé fondées sur ce qu'il a été convenu de nommer les TICE, pour Technologies de l'Information et de la Communication pour l'Enseignement, ont eu pour résultante de faire buter une grande partie des acteurs de l'enseignement sur le premier caractère de l'acronyme. L'écueil pour le DSI académique serait d'engager cette transformation en lui donnant une apparence une nouvelle fois technologique. Il doit donc porter les projets avec les partenaires que sont en particulier les responsables des collectivités territoriales dans une approche pédagogique, ce qui n'est pas dans l'ADN du DSI. Il a donc besoin pour cela d'un ambassadeur pédagogique. Il faut se féliciter de l'instauration dans chaque académie d'un délégué académique pour le numérique à qui ce rôle a été confié. Dès lors le DSI académique opère la plupart du temps en tandem, pour le moins dans cette phase d'équipement préalable et nécessaire à la transformation. Le propos du délégué au numérique agit en signe indexical, il fait pointer l'action du DSI vers un environnement non plus informatique mais pédagogique. Cet index renvoie forcément au plan numérique qui est lui largement relayé par la sphère médiatique.

Cette première transformation ne se situe pas qu'au niveau symbolique car elle s'opère réellement dans le factuel, par la mise en œuvre du plan, au travers notamment des collèges préfigurateurs et du déploiement des équipements mobiles de type tablette. Elle fait émerger une réalité qui est celle pour un DSI de pouvoir compter sur des maîtrises d'ouvrage qui assurent leur rôle avec professionnalisme. Il s'agit donc de faire converger des cultures ancrées chez des acteurs d'origines différentes en vue d'obtenir la synergie nécessaire pour remporter l'adhésion des collectivités territoriales qui ont reçu la charge des acquisitions par la loi. Le DSI se voit investi du rôle d'acteur-clé de la convergence, pivot du déroulement de la phase initiale du plan numérique il doit faire porter son action dans un souci de convergence.

Il est également en règle générale investi de la responsabilité du volet sécurité et doit tout mettre en œuvre pour garantir la continuité de service. Ceci fait appel à des notions qui relèvent des métiers spécialisés de l'informatique et qui peuvent parfois être perçues comme des ralentisseurs dans la trajectoire des projets. Là encore la transformation doit s'opérer. Mettre en avant la sécurité, en amont des projets, renvoie à des notions de restriction, antinomiques avec le principe de liberté pédagogique. Les signes manipulés ne coïncident pas avec l'habitus enseignant. Le DSI doit procéder à un alignement communicationnel tout en restant ferme sur les enjeux de protection des élèves qui sont exposés sur les réseaux et des données qui entrent en scène dans les procédés d'accès aux ressources numériques pédagogiques.

Enfin l'impératif de sécurisation budgétaire des projets qui s'engagent est là encore largement de la responsabilité du DSI qui a une vision précise des coûts cachés mais bien réels que supposent le développement ou l'intégration de services numériques supplémentaires dans des environnements d'infrastructures maîtrisés. Une fois de plus ces réalités sont faussées par la vision que procurent les acteurs majeurs de l'internet en laissant croire que l'immédiateté du service proposé et l'évolutivité en apparence sans limite peuvent s'inscrire dans la gratuité. Hébergements et puissance de calcul doivent être dimensionnés dans des proportions totalement nouvelles correspondant à la masse d'utilisateurs visée par le plan numérique dont les coûts sont eux aussi totalement nouveaux, souvent sans rapport avec les capacités qu'offrent les budgets publics.

C'est donc dans ce challenge d'alignement que le DSI apporte la forte valeur ajoutée de son métier, les méthodes garantes de la conduite efficiente des projets et la technicité informatique souvent très pointue. Il doit désormais s'exposer aux partenaires institutionnels et privés dans une approche nouvelle qui s'inscrit dans la convergence pour garantir la réussite de la transformation numérique.

Des concepts, des compétences, des savoir-faire : l'arbre du numérique cache la forêt de l'informatique.

Ouvert, Open : libre

lundi 13 octobre 2014

Documents, logiciels, données en route vers l'ouverture...

La vague de l'hospitalité déferle sur l'action publique, il est intéressant d'observer à quel point l'Open est aujourd'hui au centre des préoccupations. Mais quel sens produit cette ouverture dans l'esprit des usagers, qu'ils soient acteurs publics ou citoyens?

J'ai toujours plaisir à essayer de comprendre comment la signification naît d'une décision publique et les incidences qui en découlent, alors que les anglicismes s’agrippent à notre vocabulaire au point de ne pas nous laisser la liberté de défendre notre bonne vieille langue dans cette mondialisation affolante. Je tente de comprendre ce qu'il en est de l'Open-Document, de l'Open-Source ou encore de l'Open-Data dans une approche sémiotique, pardonnez-moi c'est obsessionnel.

Ces trois orientations, prises dans la stratégie contemporaine de l'État français sont portées au plus haut niveau des instances de gouvernance. Trois textes de référence de portée sans précédent nous laissent entrevoir un impact important dans la vie des citoyens et il faut s'en féliciter. Cet impact sera d'autant plus bénéfique que la société dans son entier aura pu institutionnaliser ces trois notions au point d'en faire des noms communs. Il me plaît toujours de commencer par la lecture des définitions lexicales ou des synonymes piochés dans les dictionnaires majeurs de la langue française. Le mot "ouvert"  parvient à l'esprit du quidam signifiant "qui n'est pas fermé", "franc", "sincère", "communicatif".  Comment l'ouverture des documents, des logiciels ou de données va donc être accueillie par l'usager?


J'avoue avoir fondé un grand espoir en 2004 lorsque la DGME m'avait associé au groupe d'experts pour l'élaboration du référentiel général d'interopérabilité. J'étais à ce moment-là en charge du pôle national de compétence du poste agent au ministère de l'éducation nationale et la problématique des formats interopérables me tenait réellement à coeur déjà à l'époque. On y voyait un moyen pour l'autorité publique de faire prendre un tournant aux usages bureautiques. Aujourd'hui l'Open-Document reste un format de fichier mis en oeuvre essentiellement par la suite LibreOffice, dont il est en quelque sorte issu, et l'invasion des tablettes avec leurs suites bureautiques variées masque l'effet dominant du format propriétaire de Microsoft. Je reste attaché à ce format de fichier basé sur XML, réellement ouvert, mais j'en parle en spécialiste en me disant que le quidam  n'a pas forcément les clés pour en percevoir les enjeux. Je pense qu'on a pas fini d'entendre "je t'envoie un fichier Excel" ou encore, "j'ai presque terminé mon Powerpoint"... Il semble encore complexe d'institutionnaliser l'Open-Document lorsque les administrations centrales elles-même produisent leurs tableaux de bord remplis de macros Excel.
L'annonce par Jacques MARZIN de la perspective d'une nouvelle version du RGI, qui a aujourd'hui le statut d'arrêté du premier ministre, est toutefois là pour nous rassurer.
Je comprend ici le maintien de l’anglicisme : si nous traduisions Open-Document par "Document ouvert", il y aurait  fort à parier sur la confusion induite. Allez, on y croit!


Concernant les logiciels, je trouve l'approche très intéressante. L'Open-Source est introduit à travers une circulaire du premier ministre, ce qui marque une forte volonté de l'État français en la matière.  Dans ce cas, l'impact cognitif s'opère plutôt du côté des acheteurs publics qui prennent souvent appui sur les informaticiens. Mais le déploiement de logiciels aux programmes ouverts se heurte fortement à un habitus ancré depuis le milieu des années 90, lié à hégémonie de Microsoft. De ce que j'observe dans la démarche, il ne s'agit pas vraiment de parler de logiciel libre mais plutôt d'alternative aux logiciels propriétaires. Ce qui est radicalement différent. L'open-Source est synonyme de développement communautaire, ce qui n'est pas une règle d'usage très répandue dans la sphère publique, qui n'a d'ailleurs pas spécialement vocation à se substituer aux éditeurs et qui n'a pas toujours les moyens d'assurer la fonction support qu'on trouve facilement avec les versions propriétaires par contractualisation commerciale.
LibreOffice, porte en son intitulé le marquage de l'open-source, mais ce n'est pas le cas de beaucoup de logiciels au point que pour l'utilisateur, open-source ou pas, ce qui impacte c'est avant tout l'environnement ergonomique et le niveau de compatibilité. Deux conditions indissociables pour garantir l'adhésion. Mais souvent la non adhésion à un outil peut provoquer un sentiment de rejet global pour ce qui est alternatif. D'où le raccourci : libre = moins bien. Je trouve cela dommage, mais c'est ce qu'on vit régulièrement au sein des DSI.
La DISIC maintien à jour un socle interministériel des logiciels libres (SILL) qui couvre les domaines de la production bureautique et une partie des besoins métiers, c'est une approche très intéressante et prometteuse. Je suis tout de même un peu déçu que le SILL n'ait pas été poussé jusqu'au poste de travail, ou plus particulièrement au bureau. Personnellement, je pense que le bureau libre a un réel avenir dès lors qu'il permet également d'utiliser des logiciels propriétaires. C'est notamment le cas de l'Open Virtual Dektop développé initialement par la société Ultéo, disparue depuis, mais dont le code open-source continue d'exister à travers la version communautaire. Le cas d'Android qui représente 84% de parts de marché des tablettes et smartphones me force également à penser qu'il y a là un renversement qui s'opère.
L'open-source provoque souvent la crainte d'une absence de support conduisant de ce fait parfois les décideurs à d'autre choix.


Et puis, plus récemment, l'apparition de ce véritable engouement pour le partage des données publiques  fait du Directeur de la prospective que je suis un fonctionnaire encore plus vigilent à la démarche de production et de publication de données. L'information produite par la sphère publique est désormais reconnue comme un bien commun dont la diffusion est d'utilité publique. Et cette information est dite ouverte dès lors qu'elle est numérique et diffusée selon un format et une licence ouverts. Ce sont les fondement de l'Open-Data décliné en France par la mission Etalab instauré en 2011.  Ce service du premier ministre a la charge d'administrer le portail data.gouv.fr. Je trouve la démarche géniale, elle profite à tous et doit être de nature à favoriser tout type d'initiative. J'observe toutefois une propension croissante à développer des portails de type open-data dans tous les sens ce qui risquerait de rendre l'accès à l'information complexe. Restons vigilants et travaillons dans la cohérence globale avec pour objectif de servir l'usager correctement et pas de conduire notre propre projet. J'observe également que les formats de publication ne sont pas toujours ouverts, y compris sur data.gouv.fr... Dommage qu'il y ait des mauvais élèves dans ce genre d'entreprise.
Alors même si "donnée ouverte" ne fait pas forcément de sens dans l'esprit de l'usager lambda, la dimension internationale de l'OpenData devrait permettre d'institutionnaliser rapidement ce concept. On a de bonnes raisons d'y croire mais ne négligeons pas l'accompagnement nécessaire en interne pour faire adhérer l'ensemble des acteurs.

Un service public qui s'ouvre, c'est plutôt bien, non?

Glissement réticulaire

C'est décidé, à compter de maintenant pensées, réflexions et autres approches que j'aurai à commettre trouveront leur place ici. Le format blog s'intégrant plus nativement dans l'organisation des réseaux sociaux digitaux...

Cependant mon web reste en ligne même s'il a vocation a passer en mode archive après quasiment 20 ans d’existence. Eh oui tout cela ne nous rajeunit pas.
Ma thèse et les articles associés ainsi que tous les autres documents d'accompagnement y restent disponibles.

Approche sémiotique de l'activité IT en lien avec la sphère publique, voire en débordement parfois, je me livre désormais ici.

Web 2.0 : vers des identités numériques truquées ?

mercredi 16 février 2011

Flash sur l'internet! C'est désormais le réflexe qu'on peut avoir assez spontanément pour dresser l'inventaire des données personnelles d'un individu. Serons-nous bientôt tous des grands-hommes dans l'encyclopédie du Web, statut réservé jusqu'alors dans les manuels aux individus ayant marqué l'histoire? Le processus de signification assisté par le réseau nous conduit-il vers plus de facilité ou vers plus de difficulté dans la construction de la connaissance des personnes? L'information literacy est-elle à la portée des internautes rendus à la facilité apparente procurée par les moteurs de recherche sociaux? Nous allons tenter de trouver des réponses à ces questionnements.

Le résultat produit par les outils de recherche documentaire désormais  disponibles sur l'internet a des effets assez remarquables tant sur les contenus que sur les cheminements cognitifs,  effets que nous analysons à travers les signes  composites qu'ils génèrent à un moment où l'identité numérique devient une préoccupation forte des dirigeants de ce monde.

Dès le début des années 1990 et la conception du World Wild Web, la problématique de l'indexation des données était mise en avant. Structuré en pages, le Web faisait ressortir dès le départ le problème du repérage des informations et un « web  sémantique » était mis en projet dans la perspective d'une montée en charge des contenus que l'avenir a largement confirmé puisqu'on exprime le nombre de pages en ligne en 2011 à la puissance douze, c'est à dire en trillon (1000 milliards) (1) dont environ 40 milliards seraient indexées par Google contre 26 millions en 2006. Ce projet de web sémantique visait à fournir les outils de structuration de l'information sur la base d'une catégorisation des données (2) associée à de puissants outils d'indexation. L'engouement des internautes depuis l'arrivée du Web 2.0 au milieu de la première décennie des années 2000 n'a pas laissé au web sémantique le temps de s'imposer et donne aujourd'hui lieu à une extraordinaire pagaille sémiotique. Le Web 2.0 a été l'avènement des « réseaux sociaux », sortes de lieux de rencontre dans la sphère virtuelle où chaque individu de notre planète disposant d'un accès à l'internet est libre de publier tout type d'information relative à tout type de sujet et en particulier relative à lui-même (3). Apportant naturellement une réponse à la question de la localisation des données sur les réseaux sociaux, les moteurs de recherche se sont penchés sur ce nouvel environnement donnant naissance aux « moteurs de recherche sociaux ». Même si les technologies mises en œuvre pour localiser et restituer l'information ne sont pas exposées en toute transparence, la technique du « mashup » est largement usitée. Alors arrêtons-nous quelques instant sur ce mashup.
La traduction directe de l'anglais nous donne le mot purée en français, le résultat produit par le mashup s'apparenterait-il à une purée informationnelle?
La purée authentique est le résultat d'une extraordinaire recette qui repose sur le seul fait d'écraser des pommes-de-terre, résultat que l'on peut agrémenter à sa guise en y ajoutant du beurre ou du lait. Mais quelle peut donc être la recette sémiotique de la purée informationnelle? Au départ la technique du « mashup » permettait de produire des extraits musicaux par la fusion de plusieurs extraits existants (4). Cette technique, étendue à l'information textuelle  permet désormais de construire des documents hybrides au sein desquels des informations en provenance de plusieurs sources sont rassemblées en une unité raccrochée à une entrée sémantique donnée. Il se trouve que dans le cas des moteurs de recherche sociaux, l'entrée sémantique n'est rien d'autre que l'association d'un nom de famille et d'un prénom, ce qui en soi est déjà une information nominative. La purée informationnelle issue des réseaux sociaux n'est donc rien d'autre qu'un traitement automatisé d'informations nominatives, processus bien cadré légalement en France (5) mais que le Web sans frontière tend à laisser s'opérer en s'affranchissant de toute considération juridique. Ce n'est pas de cet aspect que nous voulons traiter ici en tant que sémioticien, même s'il est préoccupant, mais de la valeur signe des informations hybrides et de la qualité sémiotique de l'assistance numérique fournie à l'internaute dans son parcours du chemin d'accès à l'information.
Revenons sur l'architectonique du signe.  Un signe est un processus dynamique ayant pour résultante une signification. Il est triadique, c'est un vecteur qui connecte l'esprit de l'individu à un objet par l'intermédiaire d'un signe d'interprétance. Pour faire un raccourci, lorsque nous observons de la fumée, si notre esprit est connecté au concept de feu, c'est parce que l'objet du signe (le feu), est convoqué par l'intermédiaire d'un élément de connaissance qui est un autre signe que nous avons acquis et mémorisé antérieurement et que nous nommons signe interprétant (6). Il n'y a pas d'équivoque possible, le signe perçu pointe vers le bon objet dès lors que l'interprétant est bien possédé. Autre exemple donné pour bien comprendre le processus sémiotique, les peintures rupestres des grottes préhistoriques présentent des graphismes dont nous inférons qu'ils signifient des animaux sans bien entendu qu'il s'agisse d'animaux puisque ce sont des peintures (7). Notre interprétant nous a appris que ces formes-là en pareille circonstance représentent des animaux préhistoriques.
Sur le Web 2.0, les moteurs de recherche sociaux procèdent à une  construction syncrétique d'informations personnelles par de subtils assemblages. Ces informations sont ensuite capitalisées dans des bases de données pour devenir des informations de base qui seront retraitées par un processus à venir et ainsi de suite. Ce phénomène nous plonge dans la réflexion sur l'agilité numérique (8),  terme évocateur bien que toujours pas consensuel pour désigner ce que les anglo-saxons ont introduit par « information literacy ». Cette agilité numérique repose sur la batterie des savoirs et des compétences qui font qu'un internaute est en mesure de construire son savoir dans le magma informationnel de l'internet. Il ne s'agit donc pas d'un processus simple mais plutôt d'un ensemble de démarches inférentielles que l'individu mis face au Web doit mener pour construire son résultat documentaire.
Dans le cas du mashup opéré par les moteurs de recherche sociaux, s'il est pris sans aucune forme de critique, le résultat de la recherche correspond à la classe de signe la plus élevée dans la hiérarchie cognitive, il s'agit d'un argument. C'est à dire un sens construit. Or, ce sens n'est pas  construit par un individu en situation d'interprétation mais par un dispositif informatique. On connaissait le sens construit par l'intelligence collective à l'instar de Wikipédia, dans une forme humaine où une communauté élabore un argumentaire qui devient « encyclopédique » par validations successives, on rencontre désormais des argumentaires produits de manière robotisée par des moteurs de recherche de personnes disponibles en ligne (9).
Peut-on parler de signification  assistée par le réseau pour autant? Pour répondre à cette question nous devons décortiquer le processus sémiotique traditionnel au long duquel un individu procède à une enquête cognitive à travers divers médias pour ensuite inférer en partant des signes collectés et sélectionnés au regard d'un savoir qui se construit par adjonction de savoirs nouveaux jusqu'à posséder un agrégat estimé comme étant suffisant pour constituer un signe résultat : l'argument. Par exemple à la question « qui était Napoléon? » posée par un enseignant, l'élève formera un corpus au terme de diverses recherches et élaborera sa réponse argumentée. Ce corpus sera construit en bonne intelligence notamment par analogie aux informations possédées dont celles transmises par l'enseignant, ce qui constituera une forme de guidance et garantira la justesse de la réponse, justesse directement liée à la proximité du résultat de l'enquête cognitive vis à vis de l'acquis antérieur. Ce travail de repérage, de collecte et d'agrégation de signes est réalisé par les moteurs de recherche selon des procédés techniques flous. On ne connaît d'ailleurs en général pas la méthode utilisée avec précision en revanche on peut observer le résultat et analyser s'il peut constituer un savoir fiable.
Prenons le cas du moteur de recherche de personnes « 123people » dont un recruteur ferait usage pour savoir qui est le candidat qui se cache derrière la lettre de motivation dont il a été destinataire. Le résultat produit est restitué sous la forme d'une page d'écran composée de zones thématiques rassemblant des informations trouvées sur l'internet relatives à la personne recherchée. Tout au moins c'est ce que l'on pourrait croire. La personne en question est signalée au moteur de recherche par l'association d'un prénom et d'un nom. Elle devient un concept à l'instar du concept de pomme qui déclencherait une avalanche de résultats (10) dans un moteur de recherche. Un problème de taille se fait jour : un individu n'est pas un concept, il est un existant singulier que seuls son nom et son prénom ne permettent pas d'identifier avec exactitude. Dès lors le signe produit par les moteurs de recherche de personnes répond à un montage sémiotique très particulier. Nous sommes en présence d'un signe qui pointe vers plusieurs objets. Ainsi, l'instance « objet » de la triade objet-signe-interprétant est multivaluée. En d'autres termes la guidance qu'est censée offrir le moteur de recherche à l'internaute induit plus de confusion qu'une recherche méticuleuse non assistée. Le résultat produit par le moteur de recherche de personnes est une carte d'identité numérique autoconstruite qui mêle allègrement des traces laissées sur l'internet par différents acteurs et dont la seule cohérence serait que ces acteurs aient en commun un nom et un prénom. Une sorte de portrait  robotisé absurde.

On voit combien le web 2.0 avec ses réseaux sociaux manque plus que jamais d'un outillage sémantique développé. Avec les moteurs de recherche de personnes, l'histoire de l'internet aura été jalonnée d'une étape où certains se seront autorisés la production de  fiches d'identité numérique  truquées...


1) Google n'indique désormais plus le nombre de pages indexées et le trillon est un ordre de grandeur car le concept de page ne correspond plus à ce qu'il était au départ du fait de l'arrivée des blogs des tchats et autres réseaux sociaux qui donnent aux internautes la possibilité de générer des milliers de pages en une seule seconde.
2)De nombreux dispositifs ont été proposés : des méta-descripteurs aux langages naturels.
3) Facebook est certainement l'exemple le plus représentatif de cette dynamique des réseaux sociaux.
4) Le site www.i-cone.net propose son Mashup Music Player qui permet de se rendre compte du résultat produit par l'hybridation d'extraits musicaux.
5) La France a été le premier pays au monde à se doter dès 1978 d'une loi dite de l'informatique et des libertés destinée à préserver les individus des traitements automatisés d'informations nominatives.
6) Depuis la définition donnée par Robert Marty à la fin des années 1990, il est admis que l'interprétant est constitué par l'habitus social de tout individu.
7) Pensons au célèbre tableau de René Magritte « ceci n'est pas une pipe ».
8) Le terme agilité numérique a été proposé par le journaliste Philippe COUVE en 2007
9) On peut citer notamment 123people, pipl, Wink, Spock, Zoominfo, Zabasearch, peekyou etc.
10) Google retourne environ 9 250 000 résultats concernant « pomme»

Le DSI se laissera-t-il étourdir?

jeudi 2 juillet 2009

Mais qu'est ce qui peut bien guider l'imaginaire des informaticiens de laboratoire en cette fin de décennie? Nous parlons ici de ceux qui conçoivent et tracent les lignes des évolutions majeures, et non de ceux qui doivent tout mettre en œuvre pour que l'évolution soit contrôlée et non subie. A peine entrés dans la société du web 2.0,  voilà les Directeurs des Systèmes d'Information (1) déjà projetés dans l'au-delà dont ils ne savent même pas s'il s'agit du 3.0! Absorbés par la déferlante « virtualisation » qui progresse à pas de géant, les DSI sont contraints de mettre le cap sur les architectures orientées service.
Avec notre regard de sémioticien, nous allons nous attarder sur les phénomènes que renferme cet environnement organisationnel, dont on nous dit qu'il est « dans les nuages », pour essayer de comprendre l'articulation qui régit l'équilibre entre la terminologie et les effets induits du « Cloud Computing ».
En inventant le pragmatisme ou plus exactement le pragmaticisme, comme il  le définissait, Charles Sanders PEIRCE nous a légué le devoir de nous préoccuper des effets produits par tout phénomène, nous parlons de signe. Sa fameuse maxime (2) reste d'ailleurs fort bien complexe à interpréter mais nos recherches antérieures (3) nous ont permis d'en clarifier le périmètre. Inspiré de KANT et des catégories philosophiques, PEIRCE définissait les trois modes d'être correspondant aux trois moments phénoménologiques : dans la priméité, il classait tout ce qui relève des qualités de sentiments ;   dans la secondéité, tous les faits et existants ; dans la tiercéité ce qui relève de la loi sociale, ce qui est institutionnalisé.
Pour tenter de comprendre, ce à quoi les DSI sont confrontés,  arrêtons-nous un instant sur la virtualisation des systèmes  informatiques et observons cet environnement ou plus modestement ce qu'il représente.
Ce qui est virtuel, selon l'usage lexical (4) hérité du grec, est tout ce qui produit un effet par sa puissance mais qui n'a pas d'existence matérielle. Nous avançons là une définition synthétique sur la base de ce que d'autres avant nous ont écrit et qui s'applique au contexte informatique. Dès lors, le virtuel n'est pas dans le domaine du réel, alors qu'on parle couramment de réalité virtuelle... La virtualisation serait donc la transformation d'un existant actif en un dispositif qui produit les mêmes effets alors qu'il n'a plus son existence matérielle. Nous voilà bien embarrassés, car du coup le virtuel n'est plus catégorisable au sens des trois catégories phénoménologiques et ceci n'est pas possible d'un point de vue sémiotique puisqu'on échapperait à tout mode d'être.
Le virtuel n'existe donc pas mais malgré tout il produirait des effets...
Rappelons que la sémiotique est l'autre nom de la logique et que le champ de l'irrationnel n'y trouve pas sa place. Qu'observe-t-on? Un DSI désireux de virtualiser un parc de serveurs, poussé qu'il l'aurait été par une grande firme vendeuse de virtualisation ou pas, doit initier son projet en partant du matériel, pour aboutir à.... un autre matériel. En effet, sans entrer dans le détail technique, une architecture virtualisée repose sur une infrastructure matérielle, souvent bien plus dimensionnée qu'à l'origine notamment du fait des contraintes techniques et sécuritaires imposées par la virtualisation (5). La transformation ne se situe donc pas au niveau matériel mais bel et bien au niveau logiciel. Ceci nous rassure, la virtualisation relève de la secondéité, la catégorie des faits et existants.
C'est donc le niveau logique qui est impacté, à qui on applique le fameux f(x) qui transforme un applicatif en service par la technique de l'imagerie binaire. En effet, une machine devient virtuelle lorsqu'elle est transformée en un macro-système encapsulé dans une image logique dans laquelle on intègre un ou des applicatifs, l'image en question étant hébergée  sur une machine physique pouvant  supporter plusieurs autres images et localisée n'importe où, pourvu qu'elle puisse être atteinte à travers un réseau. Elle devient en cela un service distribué, c'est en gros ce que les contemporains ont intitulé l'architecture orientée service dénommée par les fameux sigles de la forme xaas (6) où aas signifie « as a service ».
Notons au passage qu'il  n'échappe plus à personne ce besoin ou plutôt cette nécessité qu'éprouvent les marchands de « produits » informatiques de donner au logique une allure d'existant. La fameuse boîte d'emballage en est la meilleure preuve, celle qui illustre la représentation d'un logiciel  dont l'acquisition se fait pourtant la plupart du temps exclusivement par téléchargement mais auquel il a fallu donner une image de boîte pour renvoyer à un produit, à l'instar d'une boîte de petits pois ou de lessive, l'inexistant étant difficilement vendable. Il s'agit du processus inverse à celui de la virtualisation :  «l'existentiation » (7)
 D'un point de vue sémiotique nous sommes en présence d'un signe à la fois symbolique et indexical imposé. Cette approche nous renvoie à la violence symbolique de Bourdieu. (8)
Il est imposé car il entre très haut dans le  cheminement à travers le treillis des classes de signes qui trace le parcours cognitif, chemin d'accès à la connaissance qui part de la perception pour aboutir à l'argumentation par un jeu d'inférences successives. Le consommateur, par la perception de cette image, affectera la notion de produit au logiciel en question, ce qui en fait la première étape de valorisation inconsciente.
Revenons au DSI qui se voit confronté à la pression des offres de services répartis alors qu'il n'a pas encore digéré la virtualisation. Mais où doit-il donner de la tête?
Eh bien justement, la réponse est dans l'intitulé du « Cloud Computing ». L'informatique dans les nuages, pour reprendre le terme introduit dans la langue française, fait naître le DSI dans les nuages! On pourrait y voir une plaisanterie mais la chose est très sérieuse.
Souvenons-nous du traité européen qui instaura l'ouverture des frontières et la libre circulation intracommunautaire des biens et des services et mesurons le chemin parcouru et les effets induits par la mesure. Le Cloud Computing génère le même phénomène mais à l'échelle planétaire et à la différence de l'Union Européenne, il n'y a pas de police aux frontières sur l'internet.
Cette traduction mot pour mot qui nous donne « l'informatique dans les nuages » a-t-elle été bien  réfléchie?
L'expression « dans les nuages » est couramment utilisée dans la langue française, on l'associe le plus souvent à « avoir la tête dans les nuages » ou encore on la rapproche de « être dans la lune ». Tout ceci qualifie simplement l'individu dont il est question d'étourdi. Le DSI dans les nuages, par extension, serait alors un DSI étourdi (9)? Il faut certainement considérer le vocable dans sa polysémie. Il pourrait être étourdi au sens où le phénomène serait étourdissant, ou bien encore étourdi, au sens où il manquerait de vigilance. Comment a-t-on pu en arriver à une telle expression, par quelle malheureuse association se retrouve-ton dans les nuages? L'architecture applicative distribuée, considérée désormais exclusivement sous forme de service, repose sur des interconnexions de réseaux dont le plus fameux exemple est l'internet. Jusqu'alors, un directeur informatique était le manager d'une infrastructure matérielle et logicielle dont son entreprise était « propriétaire ». Or, l'internet n'appartient à personne, il n'a pas de définition juridique dans sa globalité (10), même si les acteurs majeurs sont clairement identifiés, et personne ne peut espérer obtenir une garantie de fonctionnement de bout en bout. L'internet est une nébuleuse (11), c'est d'ailleurs souvent sous la forme d'un nuage qu'il est représenté sur les schémas d'architecture informatique. L'expression « dans les nuages » vient très certainement de là. Rien de bien surprenant quand on sait que  les constructions sémantiques viennent souvent de la métaphore dans le domaine de l'informatique.

Dès lors, il semble que passer de la gestion d'une propriété à la gestion d'un environnement non maîtrisé implique nombre d'adaptations pour permettre aux DSI d'apporter des réponses aux questions qu'ils doivent se poser dans ce nouveau contexte. Comment garantir une qualité de service dans un environnement où le transport de données n'est pas contractualisé de bout en bout?  Comment imposer des contraintes à des fournisseurs positionnés en deuxième ligne? Comment rétablir un service lorsqu'on n'a pas d'interlocuteur direct? Comment gérer la sous-traitance dans le cas d'un hébergement délocalisé?  Comment se prémunir du vol d'images de serveurs ou de leur mise au rebut en cas de changement d'hébergeur? Ou tout simplement comment conserver du crédit auprès de la Direction Générale en cas d'impossibilité de réactivité face à la demande métier? etc.
Cette expertise technico-managériale du DSI qui lui permet d'y voir clair grâce à la maîtrise de son environnement ne va-t-elle pas devoir s'orienter vers plus de compétences juridiques et moins d'implication technique, pour lui mais également pour ses équipes, au risque de conduire à un appauvrissement des compétences?

Pour y voir clair, le DSI devra explorer l'ensemble de l'environnement à travers les nuages, un peu comme le ferait un astronome à l'aide de son télescope. La cartographie du système d'information va-t-elle  ressembler à la carte de la voie lactée? D'aucuns diront que c'est dans une certaine mesure déjà le cas dans les grandes organisations,  mais la nouveauté se situe dans la fonction  d'architecte des systèmes d'information du DSI. En somme, l'écran de l'utilisateur doit rester le même, son environnement de travail ne doit pas être dégradé du fait de la spacialisation des systèmes qui se trouvent désarticulés en rapport à l'architecture traditionnelle locale. Les objets des signes sont  découpés en morceaux logiques désormais domiciliés dans des espaces abstraits définis par des considérations en tous genres, le plus souvent logico-financières. L'agencement du poste de travail dans les nuages consiste à regrouper des pièces d'un puzzle provenant de diverses tiroirs définis par des catégories logiques. Il est laissé à la charge du DSI une entreprise de reconstruction qui comprend le risque de perdre le sens qui découlait antérieurement de l'unité de l'objet. L'enjeu repose sur une gestion nouvelle des connecteurs applicatifs qui simulent l'apparence d'unité de  représentation à l'écran.
Toutefois, l'éloignement des morceaux logiques, considéré non pas du point de vue géographique mais du point de vue fonctionnel, devient un paramètre fort et d'un genre nouveau.
Nous ne posons pas ici le problème en termes techniques, les experts s'en chargent par ailleurs, mais il est clair que la problématique de la disponibilité des débits sur les réseaux d'interconnexion va jouer un rôle majeur dans cette expédition de la Terre vers les nuages. La prochaine étape, sera peut-être qualifiée de 2.5 et verra des DSI en charge d'une partie de leur activité dans les nuages alors qu'une autre, difficilement externalisable, restera à proximité immédiate.

Pas d'inquiétude! Le DSI aura peut-être la tête dans les nuages mais sa qualité première sera d'être vigilant et il y aura peu de place pour les étourdis. Il reste toutefois  à observer si à terme la pratique de l'informatique dans les nuages ne réservera pas des épisodes d'étourdissement...



1 DSI, l'acronyme déèssi est couramment employé pour désigner les responsable des services informatiques des entreprises.
2 « Considérer quels sont les effets pratiques que nous pensons pouvoir être produits par l'objet de notre conception. La conception de tous ces effets est la conception complète de l'objet. » C.S. Peirce 1903 -CP 5.18
3 Le groupe de recherche sémiocom de l'université de Perpignan a publié de nombreux écrits entre 2000 et 2005 sur le sujet.
4 Selon Denis Berthier « Est virtuel ce qui sans être réel a avec force et de manière pleinement actuelle (c-à-d non potentielle) les qualités (propriétés, qualia) du réel.
5 Des nécessités apparaissent : redondance des équipements et des systèmes, multi-localisation des informations, instauration de procédés automatisés de reprise d'activité, etc.
6 le Software as a Service (SaaS) est un concept qui consiste à fournir des applications informatiques en ligne à travers le Web et non pas en hébergement local.
7 N'ayons pas peur d'avancer un néologisme!
8 Pour Pierre Bourdieu, la violence symbolique est ce pouvoir d'imposer des significations, de « constituer le donné par l'énonciation ».
9 Etourdi : (1) qui agit sans réflexion (2) frappé soudainement d’une commotion cérébrale qui suspend la fonction des sens.
10 Comme un opérateur de télécommunication en a une.
11 Nous prenons quelque risque dans cette assertion, car selon le dictionnaire de la langue Française, est nébuleux ce qui est obscurci par les nuages.

Avatar, le film : analogie du Web 2.0.

Le mois de décembre 2009 aura été marqué par la sortie du film « Avatar » réalisé par le canadien James Cameron. Nous allons nous intéresser ci-après à travers cette production cinématographique aux variations de mise en œuvre du processus sémiotique et voir comment « Avatar » renvoie à la problématique des réseaux sociaux sur le Web 2.0.

Rappelons en préalable que la signification est l'effet produit pas un signe considéré en tant que processus dynamique qui conduit à la connaissance à l'issue d'un parcours cognitif constitué de cinq chemins possibles correspondant à des inférences mentales successives menées par tout individu en situation d'interprétation. Ces inférences ont pour issue la stabilisation du processus mental dans une forme de signe aboutie, définie par l'une des dix classes de signes possibles. Ce parcours cognitif est effectué en fonction de l'acquis antérieur de l'individu qui interprète le signe, son habitus social1.

Selon l'auteur du film, interrogé d'innombrables fois sur le sujet2, le script aurait été écrit quatorze ans avant la première projection en salle, soit aux alentours de 1995. L'histoire quant à elle se déroule en 2154, ce qui en ferait donc un film de science fiction, dans le cas d'espèce, relevant d'un genre nouveau par sa construction innovante en trois dimensions, il pourrait même être classé dans la catégorie « techno-science fiction »3.

Pour conduire notre analyse, nous prenons comme base de départ une constat simple : l'humanité est composée de forces sociales qui s'opposent en permanence et pour faire un bref raccourci, à la puissance institutionnelle, se sont toujours opposés les réseaux sociaux créant ainsi un certain équilibre, ou pour le moins une répartition des forces et des pouvoirs. Ceci remonte très loin dans le temps et est observé depuis que l'humanité s'est dotée d'une puissance institutionnelle.

Nous allons donc essayer de voir comment l'analogie, qui est certainement le procédé auquel on a recours le plus basiquement dans la cognition, influe de manière importante sur la signification. Pour cela souvenons-nous que Charles Sanders Peirce évoquait la notion de « ground » que nous considérons comme le socle du champ d'interprétants convoqué lors de l'enquête cognitive, ce que nous pourrions vulgariser par « l'angle de visée » ou encore le « point de vue. Ce point de vue conditionne évidemment la signification dans la mesure où toute inférence se produit en partie par analogie. On compare en effet le signe perçu, celui qui représente4 à un signe connu, celui qui est interprétant. Cette analogie s'opère donc de manière large mais si elle est opérée en ne considérant que les signes interprétants d'un sous-domaine circonscrit, le « ground », elle nous conduit à un résultat interprétatif dont les inférences sont fondées sur un point de vue spécialisé.
Concernant le scénario du film « Avatar » de nombreuses visions ont été avancées. Nous allons voir qu'une signification peut en être produite, qui est très lointaine de ce que tous les critiques et autres analystes ont pu écrire et publier.
Attachons-nous donc à décortiquer5 les caractéristiques de chaque élément du film et allons rechercher nos acquis antérieurs dans le champ d'interprétants qui serait celui d'une personne avisée des phénomènes de la société numérique pour inférer jusqu'à produire la signification du scénario « d' Avatar ».

En d'autres termes examinons la situation par la lorgnette de la société numérique.

L'histoire du film se passe dans un monde lointain de la civilisation traditionnelle. L'auteur a choisi de représenter ce monde sous la forme d'une planète et plus particulièrement d'une forêt dénommée Pandora. Pandora est constituée d'un maillage « d'arbres-maisons» reliés entre-eux par des branches ou sortes de lianes horizontales sur lesquelles naviguent les autochtones. Au pied de chaque arbre-maison vit un clan socialement organisé. Le script nous apprend que la forêt est constituée de dix puissance douze arbres et que chaque arbre dispose de dix puissance quatre connexions avec les autres arbres.
Sans aller plus loin nous établissons une analogie avec l'Internet et plus particulièrement avec le Web 2.0, également organisé sous une forme réticulaire, avec à chaque nœud un support de réseau social dont les interconnexions sont les hyperliens. Les arbres-maison seraient alors les Facebook, Msn, Skyrock, Myspace, Tweeter, etc. et les clans correspondraient aux groupes organisés en réseaux sociaux en ligne tels qu'on les connait sur Facebook par exemple.

Dans le film, les autochtones s'appèlent les « Navi », nous n'oserons pas pousser jusqu'au rapprochement avec le Navigateur Web... et ils parlent un langage incompréhensible de l'humain lambda, à tel point que le film est sous-titré lorsqu'ils s'expriment.
Notons que sur le Web 2.0, les internautes manipulent également un langage, celui hérité du SMS6. Voilà pour le décor local.

Toujours dans le film, une organisation composée de militaires et de chercheurs scientifiques, avec à leur tête le Colonel Miles Quaritch et le Docteur Grace Augustine, se préoccupent de Pandora et plus précisément d'un minerai à forte valeur, l'« Unobtainium », présent sous les « arbres-maisons ».
Nous établissons ici deux autres analogies : avec la puissance publique, étatique, institutionnalisée d'abord et ensuite, concernant le minerai, avec l'immense potentiel qui se trouve sous les réseaux sociaux en ligne : potentiel humain, électif, commercial, prospectif, etc dont le calcul de la valeur a longtemps été indexé sur le cours d'un autre minerai : l'or.
Le décor se précise : nous avons d'un côté une organisation sociale qui vit tranquille sans aucune autre contrainte que la limite de la structuration numérique (les internautes) et d'un autre côté la puissance publique cherchant à capter le potentiel et à préserver ses propres enjeux.

Dans le film, pour accéder et prendre vie sur Pandora au milieu des « Navi », les humains ont besoin de se fabriquer un avatar qu'ils obtiennent grâce à un dispositif de clonage, puis de se projeter vers Pandora au moyen d'un mystérieux procédé de téléportation et enfin de se connecter avec la communauté en raccordant leur queue de cheval à une sorte de trompe dont disposent les créatures vivant sur Pandora.

Sans trop de difficulté nous établissons là encore l'analogie : l'internaute du Web 2.0. se choisit un avatar avec lequel il va se téléporter sur l'Internet grâce à sa liaison ADSL pour enfin se connecter avec son pseudo et son mot de passe sur le réseau social.

Sur Pandora, les autochtones se déplacent en enfourchant des créatures dont les modèles évoluent au fil du déroulement du scénario, ressemblant d'abord à des chevaux puis à des sortes de dragons volants. La tentation est grande de rapprocher ces créatures des terminaux numériques qui évoluent sans cesse et qui permettent aux internautes de naviguer sur le web 2.0.

On voit dans le film comment l'acteur principal Jake Sully, un jeune ancien militaire devenu paraplégique, verse dans le monde des « Navi » à travers son avatar au point même de tomber amoureux de la sulfureuse Navi baptisée par l'auteur « Neytiri ».
Là encore, l'analogie avec le phénomène « second life » paraît peu risquée et le choix de l'auteur dans la construction du nom « Neytiri » nous pousse à l'apparenter sans difficulté à un pseudo.

A ce stade, le contexte dans lequel se déroule l'histoire se dessine de manière assez précise.

Abordons désormais l'intrigue du film. Nous relevons un scénario assez simple en quatre temps. Dans un premier temps on assiste à l'arrivée sur Pandora de Jake Sully rejoignant la délégation de la puissance publique sur place et missionné pour infiltrer les « Navi » en vue de piller les réserves d' « Unobtainium » . Dans un deuxième temps on voit comment son avatar est construit et comment il accède à Pandora par de nombreux aller-retour et comment son addiction se développe. Dans le troisième temps on assiste à un premier assaut de la puissance étatique sur Pandora qui se solde par une extraordinaire résistance des « Navi » et enfin dans un quatrième temps un deuxième assaut bien plus puissant que le premier met à feu et à sac Pandora et se solde par une éclatante victoire des Navi qui prennent véritablement le pas sur la situation.

Nous pouvons encore raccrocher le fil de ce scénario à notre champ d'interprétant par simple analogie.

Dans le premier temps, les pouvoirs publics et centres de recherches mettent au point un ensemble de dispositifs pour s'attaquer au Web 2.0. qui de toute évidence devient une zone de non respect du droit et dont la maîtrise échappe à l'institution. Poussés par les majors de l'industrie du disque et du film d'une part, soucieux d'enrailler les différents trafics d'autre part et de protéger les individus par ailleurs, les États se dotent de services de surveillance pour infiltrer les réseaux en vue d'y faire appliquer le droit. Pour ne prendre que le cas de la France, la Gendarmerie Nationale dispose par exemple d'une brigade Internet désormais très active avec des gendarmes qui ressemblent curieusement à Jake Sully.
Dans le deuxième temps, les services passent à l'action et infiltrent les réseaux. Les services spécialisés sont aujourd'hui très actifs et après de très nombreux aller-retour sur la toile fournissent de précieux éléments aux pouvoirs Étatiques. L'analogie avec le film est encore assez directe.
Dans le troisième temps, l'échelon législatif tente de faire interdire le téléchargement illégal. Cet épisode vécu au milieu des années 2000 qui a permis de faire fermer les deux principaux réseaux de « peer-to-peer » a eu pour conséquence un accroissement extraordinaire du téléchargement et la mise au point de multiples services de téléchargement en direct échappant très majoritairement à toute surveillance faute de moyens appropriés et suffisamment dimensionnés des États.
Le quatrième temps semble de toute évidence pouvoir être mis en corrélation avec les lois régissant les droits d'auteurs et de diffusion sur l'internet. Pour la France, la loi HADOPI.
Dans le film on assiste à un assaut extraordinairement destructif. Les « arbres-maison » sont en feu, mais de leurs cendres renaissent avec encore plus de force des résistances chez les « Navi ». Ces « Navi » qui s'en sortent grâce aux créatures volantes bleues que l'on pourrait par analogie rapprocher des opérateurs du Web: Yahoo, Msn, et bien d'autres mais aussi bien entendu et surtout, Google.
On voit à la fin du film une scène assez intéressante, où pour se sortir de la situation Jake Sully doit capturer et dompter le dragon rouge. Il y parvient en exploitant une faille : étant l'écrasant leader, voire l'unique prédateur, il n'est jamais venu à l'idée de cette créature qu'elle pourrait être inquiétée et n'a donc jamais regardé plus haut. Si nous osions pousser l'analogie nous dirions qu'il s'agit là de Google.
Jake Sully s'en sortirait donc grâce à Google mais on le voit dans la dernière séquence relâcher le dragon rouge et on l'entend dire que les « Navi » n'ont désormais plus besoin de lui.

En conclusion, en fondant nos inférences sur le « ground » de la société numérique et en limitant notre stratégie cognitive au procédé analogique, le fil du scénario du film « Avatar » produirait le sens suivant : l'institution publique met en place un dispositif spécialisé pour la lutte contre les activités illégales des internautes sur les réseaux sociaux du Web 2.0. Pour parvenir à ses fins elle infiltre les groupes en dissimulant ses agents derrière des avatars et initie deux tentatives d'interdiction opérées en force. La réaction des internautes qui opposent la puissance réticulaire à la verticalité de l'organisation étatique fait échouer l'institution publique qui rend les armes. Devenus suffisamment organisés, les internautes qui ont construit leurs réseaux au départ grâce à l'action de l'acteur majeur de l'internet peuvent continuer à évoluer en se dispensant de lui et vivre tranquille dans leur environnement numérique.

Il sera intéressant de voir comment finira le Web 2.0 dans la réalité...


1Nous devons la théorie du signe triadique à Charles Sanders Peirce, logicien considéré comme le plus grand philosophe de tous les temps.
2Voir wikipedia à la page James_Cameron
3Si le terme n'existe pas, n'ayons pas de crainte à avancer le néologisme.
4Dans un autre champ épistémologique on parle de signifiant
5Peirce écrivait : «essayer de déchiffrer les signes et de descendre jusqu'au sens même, c'est comme essayer de peler un oignon ou de descendre jusqu'à l'oignon même ».
6Dont un des noms commerciaux est TEXTO
 

Les plus lus

Blogger news

Blogroll