Avertir le modérateur

11/03/2017

Pour Karl Olive >>Le pouvoir de notre voix!>>Remettre l’individu au coeur du système et favoriser le débat>Un moment crucial dans l’histoire politique de la France, Le digital est au service des hommes, y compris dans les choix qui gouvernent leur vie

1agld1r.gifFranceWeb en un clic de souris, Pour Vous et avec Vous !

1agld1r.gifPoissyVilleConnectée,VilleNumérique, Communication tous-tous !

1agld1r.gifPoissySmartCity, Un réseau dynamique à portée de main,en un clic de souris, Poissy ne doit pas faire un complexe d'infériorité dans le numérique. A la rencontre d’initiatives positives au niveau humain, économique, culturel, technologique..

foule.jpgRECHERCHER,OBSERVER,METTRE EN LIEN,DIFFUSER, Produire de l’intelligence collective au bénéfice de l’économie sociale et de la vie associative et impulser les changements nécessaires par l’évolution de notre société. 

1agld1r.gifFaisons connaissance

A la rencontre d’initiatives positives au niveau humain, économique, culturel, technologique..

IMPLIQUER TOUS LES PISCIACAIS DANS LA SOCIETE DE L’INFORMATION.

Mettre en relation, créer des liens, le maintenir et favoriser l'échange.

Le Portail est doté des dernières innovations technologiques du Web 2.0 offrant des informations diversifiées aux Pisciacais mais aussi aux internautes du monde entier.

 L'objectif est d'informer, conseiller, former, accompagner, partager, repérer, sélectionner et préparer les usagers  en ce 21e siècle.

Le contexte, Le global, Le multidimensionnel, Le complexe.

Stimuler le plein emploi de l'intelligence générale des individus faisant appel à la connaissance du monde .

Aujourd'hui, l'Autre est bien au cœur des enjeux de la communication. Et il y restera.

1agld1r.gifFranceWeb à Poissy est  spécialement pensé pour répondre aux attentes de tous les acteurs des différents secteurs de la société de l'information et de la connaissance. Ce réseau constitué de multiples branches construites par les membres partenaires de façon indépendante les unes des autres, interconnectées. Cette architecture permet des connexions de bout en bout plus rapides et plus stables, un Internet de deuxième génération. Son objectif est de saisir le degré et les modalités d’insertion de la France dans l’économie du savoir et d’en débattre les enjeux en termes d’organisation, de spécialisation sectorielle, de compétitivité, de croissance et d’emploi.

Des solutions pratiques au service de votre vie quotidienne

EVOLUER -INTEGRER-ECHANGER-RENFORCER

Venez nous rejoindre. C’est encore plus facile ensemble. C’est l’inspiration qui nous fait grandir

 Nous désirons nous faire connaître en nous adressant, prioritairement aux personnalités économiques, sociales, politiques, médiatiques, responsables et compétentes, intéressées par cette initiative.

Pour Vous et avec Vous ! 

StefanV.Raducanu,Président FranceWeb
Contact : Stefan Raducanu : +33 (0)1 39 65 50 34 

FranceWeb, Charte pour l'information et le développement durable. 

PoissyWeb

Bonheur

FranceWeb

Web Gallery

StefanSRU

FW-pour-vous-et-avec-vous.gifGroupe d'intérêts.jpggroup.jpgforschung - Copie.jpg


Le digital pourrait relancer nos démocraties si et seulement si...

Le digital pourrait relancer nos démocraties si et seulement si...

Par 09 mars 2017
Mots-clés : Smart city, Civictech, Europe
E-democratie
 

Aujourd’hui, le digital est partout. Il révolutionne tous les secteurs : services, industrie, éducation et même l’agriculture. Il se propage dans toutes les entreprises, petites ou grandes, et pas seulement via les start-up. Mais il y a un domaine encore relativement vierge, que le digital est en train d’adresser, celui de la démocratie.

Depuis la campagne électorale de Barack Obama, le rôle d’internet a bien changé et les réseaux sociaux ont joué un rôle crucial dans les dernières campagnes aux Etats-Unis, en Grande-Bretagne comme en Italie. Si certains voient dans le web l’une des explications à la prolifération de thèses extrêmes et à la perte de crédibilité des politiques, internet par le biais des Civic Tech, pourrait bien au contraire, venir au secours de la démocratie.

Un moment crucial dans l’histoire politique des Etats-Unis et de la France

Ce nouveau paradigme digital a déjà un impact politique au sens étymologique du terme (relatif aux affaires de la cité) : il a aussi commencé à changer nos villes. Applications d’information, réseaux connectés, transports intelligents, énergie et réseaux gérés grâce au digital et aux “data”, la Smart City n’est plus un rêve fou ou un simple espoir. Elle est bien réelle et prend forme sous nos yeux, à Lyon, à Lille, à Barcelone, à Stockholm ou encore à Boston. Reste une sphère qui peut, elle aussi, être vraiment transformée par cette dynamique digitale : celle de la politique à l’échelle nationale. A l’heure où les Américains viennent d’élire un nouveau président après les deux mandats de Barack Obama et où les Français vont faire bientôt de même à un moment critique de notre histoire économique et sociale, le digital peut-il nous venir en aide ? En 2015, la fondation Knight aux Etats-Unis a réalisé un rapport très complet et même chiffré sur les enjeux de la Civic Tech, comprenez toute technologie permettant aux citoyens de s’exprimer et de renouer le dialogue avec leur gouvernement, de façon plus transparente, plus accessible, et donc plus démocratique. Ce rapport permettait notamment de classer les améliorations potentielles des technologies appliquées à l’appareil politique en deux grandes catégories : ouverture du gouvernement et participation citoyenne. La première intègre des solutions comme l’ouverture des données, la transparence, la cartographie et la visualisation des données publiques, l’exploitation et l’utilisation de ces données, jusqu’à la co-création des lois et des décisions gouvernementales – on voit qu’on en est encore loin. La seconde concerne davantage la participation citoyenne avec le développement des réseaux citoyens, l’engagement des communautés locales, le financement participatif dit crowdfunding et le partage de données citoyennes. On le voit, l’échantillon est large. Et ne mettre en œuvre ne serait-ce qu’une petite partie de ces solutions serait déjà franchir un grand pas.

Capable du meilleur comme du pire

La question est donc plus large : est-ce que le digital va venir révolutionner voire ubériser le fonctionnement même de notre vie politique ? Ce terme d’uberisation n’est pas forcément le plus évident à appliquer au monde politique, mais force est de constater que le digital est progressivement en train de changer notre rapport à la démocratie. Le site de pétition en ligne change.org par exemple, dont le slogan est “Le pouvoir de votre voix”, à dépassé l’an dernier la barre des 100 millions d’utilisateurs. Mais nous savons tous que le digital est aussi un amplificateur d’opinions. Internet charrie tous les engagements, tous les enthousiasmes… et tous les excès. Les extrémistes de tout poil y prolifèrent grâce à cette liberté digitale si difficile à maîtriser. Internet, c’est une loupe à opinion, un multiplicateur. Le principe d’ « une voix, un vote » s’y applique difficilement. Ce sont ceux qui crient le plus fort qui s’y font le plus entendre. 

Attaques via tweeter de D. trump pendant la campagne électorale à l'attention de son adversaire politique H. Clinton 

Depuis plus de 10 ans, le digital a fait évoluer « l’opinion publique », cette notion qui date en France de la fin de l’Ancien Régime et qui repose sur l’émergence d’une conscience collective. Internet et le digital sont des vecteurs puissants de « l’empowerment » des individus, c’est-à-dire de la prise de conscience de la puissance de la foule mais surtout de la capacité des individus à influer sur le cours des choses. C’est ce que Dominique Piotet et Francis Pisani évoquent dans leur livre « l’alchimie des multitudes ». Dans la sphère politique qui nous intéresse aujourd’hui, cet empowerment peut se montrer ravageur. Le résultat des élections américaines ou encore le Brexit sont des exemples très parlants de la difficulté pour le monde politique, les médias ou les instituts de sondage à anticiper, comprendre et influer sur l’opinion publique. Car « l’empowerment » a supprimé cette notion un peu floue d’opinion publique pour laisser place à des mouvements d’individus qui se forment et s’amplifient sur la toile au grès d’intérêts particuliers qui peuvent être communs pendant un moment, avant de disparaître ou de se recomposer.   

Et concrètement où en est-t-on ?

Bien sûr le numérique a tout de même commencé à tisser sa toile dans la sphère politique. Des maires utilisent déjà la force des réseaux sociaux ou des applications spécifiques comme Fluicity pour tisser un lien plus étroit avec les citoyens et leur permettre d’influer sur les décisions politiques locales, c’est ce qu’a mis en place la mairie de Paris avec son budget participatif par exemple. A l’échelle nationale, Ségolène Royal s’était essayée, avec un succès mitigé, à une construction de programme participatif. Mais ce n’est qu’un début. Pour l’instant, l’efficacité du web dans la politique est d’abord l’apanage des influenceurs, très présents sur Twitter (n’est-ce pas Monsieur Trump ?), Facebook ou SnapChat. Chaque candidat aura sa stratégie Internet pour aller draguer l’électeur sur le Web, stratégie plus ou moins efficace, plus ou moins structurée, avec ou sans l’aide de l’américain Nation Builder. Cet expert digital du mapping électoral a récemment encore fait parlé de lui. Ce “tout en un” permet de gérer en même temps un site web, un outil de dons en ligne et, surtout, une base de contacts, qu’il anime même. L’américain a accompagné avec succès les deux campagnes victorieuses de Barack Obama et travaille aujourd’hui aux côtés d’Emmanuel Macron pour optimiser une démarche vieille comme le monde, celle du porte à porte. Mais ce sera de la communication politique ou au mieux de la stratégie électorale. Comme les marques le font déjà largement sur Internet, ce sera du web marketing appliqué aux élections.

Il faut néanmoins reconnaître déjà 2 énormes avantages à l’émergence des Civic Tech. Le premier c’est la revitalisation de l’engagement des jeunes. Avec des taux d’absention souvent proches de 30%, voire au-delà, les millenials sont attirés par ces formes de communication digitales, proches de leurs habitudes, leur donnant ainsi le sentiment que leur avis compte, ce qui les encouragera sans doute à se réengager dans le débat public. Ensuite, des start-up comme Make.org ont pour ambition d’apporter dans le débat public de nouvelles idées, via un système de crowdsourcing et de vote comme on le connaît dans le crowdfunding (financement participatif) par exemple, où chacun est libre de proposer une idée que le vote du plus grand nombre fera émerger ou non. Ce système pourrait avoir la vertu de donner vie rapidement à des idées parfois simples et frappées du coin du bon sens, et de voir politiques, associatifs ou chefs d’entreprises les reprendre et leur donner un tour concret.    

Si l’on veut que le digital aide la politique et donc la démocratie à trouver un second souffle, il faudra sans doute trouver des équilibres. Remettre l’individu au coeur du système et favoriser le débat, car les Civic Tech ne doivent pas accélérer l’individualisme mais au contraire redonner toute sa force et sa valeur au collectif et à l’échange d’idées. Si les Civic Tech n’ont pas encore réussi à s’imposer dans le débat public, il faut reconnaître que leur existence et leur médiatisation - regardez le nombre d’article autour de laprimaire.org par exemple - sont déjà des marqueurs d’un débat public qui commence à se renouveler. Le digital est au service des hommes, y compris dans les choix qui gouvernent leur vie ; la sphère politique nationale ne doit pas être la dernière à profiter des attraits de cette révolution.

  • PoissyVilleConnectée,VilleNumérique, Communication tous-tous !

    FranceWeb vous invite à échanger sur ce blog à propos des transformations de la ville et des usages urbains par les technologies numériques.

Vous avez suivi l'actualité de ce blog

Vous avez trouvé de l'intérêt à nous lire...

Vous êtes ici par le hasard des moteurs de recherche...

 

Comment les technologies numériques transforment la ville et les pratiques urbaines. FranceWeb vous invite à échanger sur ce blog à propos des transformations de la ville et des usages urbains par les technologies numériques. Ces échanges viendront alimenter la préparation d’un évènement prévu le 1er septembre 2011

 
 
L'observation du chemin parcourue par les communicants publics permet de mieux comprendre les enjeux d'aujourd'hui. Le métier est en perpétuel mouvement semble nous rappeler les six étapes de cette histoire. Mais les défis d'aujourd’hui ne sont-ils pas d'une autre ampleur ?

A l'heure où FranceWeb engagé il y a maintenant plus de 20 ans, l'observation du chemin parcourue par les communicants publics permet de mieux comprendre les enjeux d'aujourd'hui. Le métier est en perpétuel mouvement semble nous rappeler les six étapes de cette histoire. Mais les défis d'aujourd’hui ne sont-ils pas d'une autre ampleur ?

Un célèbre proverbe africain suggère, lorsque l'on ne sait plus où l'on va, de regarder d'où l'on vient. Il ne propose pas de sombrer dans la nostalgie, bien sûr. Il suggère plutôt d'observer et d'analyser le chemin parcouru pour, d'une part, comprendre où nous en sommes puis, d'autre part, déduire la voie à suivre. L'observation de l'évolution de la communication publique peut s'inspirer de ce sage conseil. Comme il est parfois difficile de qualifier la communication publique aujourd'hui - et je n'évoquerais ici que la communication des collectivités territoriales - il est sans doute utile, alors, de décrypter les grandes phases de son évolution afin de mieux appréhender ce que furent les préoccupations des élus locaux et des communicants publics, comment et pourquoi les objectifs ont évolués, donnant ainsi naissance à de nouvelles pratiques et vers où et quoi elle tend de nos jours.

La communication publique territoriale a connu, pour schématiser et simplifier, six grandes phases. D'abord soucieuse de la seule propagande, la communication connut une phase journalistique, centrée sur le magazine, puis publicitaire, avant d'entrer dans le high-tech, puis le relationnel et avant d'aborder, aujourd'hui, le marketing, le branding (stratégie de marque), les problématiques d'images et d'identité en somme. La présentation, ci-dessous, de ces phases ne doit pas laisser entendre que chaque nouvelle étape a chassé la précédente. Des cohabitations existent, parfois des réminiscences. Elles se chevauchent souvent, mais le tout continue de progresser. Observons ...

1 - La propagande : l'ingénierie du consentement

Il y eut tout d'abord, la phase "propagandiste". L'objectif est clair : avoir une réelle emprise sur l'opinion. Il n'est question que de la façonner, de la manipuler, à tout prix ou presque. Arrêtons-nous un instant pour lutter contre le cliché qui tisserait des liens exclusifs entre propagande et dictature. La propagande serait plutôt, pour le linguiste et philosophe américain Noam Chomsky notamment, une invention des démocraties car elle est sans doute liée à la nature même de la démocratie. Dans son ouvrage d'entretiens avec le journaliste David Barsamian, De la propagande, retenons ce passage :

« Barsamian : Tournons-nous à nouveau vers l'Allemagne nazie. Joseph Goebbels, son ministre de la Propagande, a dit un jour : "Il ne serait pas impossible de prouver, en le répétant suffisamment et en maîtrisant la psychologie des personnes concernées, qu'un carré est en fait un cercle. Ce sont des mots, de simples mots, et l'on peut façonner les mots jusqu'à ce qu'ils habillent les idées déguisées."

Chomsky : [...] Goebbels a tiré cette idée, comme le faisait Hitler, de la pratique des démocraties. Il avait été fort impressionné par les succès de la propagande anglo-américaine au cours de la Première Guerre mondiale et avait la sensation, non sans raison, qu'elle expliquait pour partie la défaite allemande. L'Allemagne ne pouvait rivaliser avec les efforts considérables de propagande des démocraties [...] Ainsi, les Britanniques avaient leur ministère de l'Information. Les états-Unis avaient la Commission d'information publique, plus connue sous le nom de "commission Creel". Elle comptait des libéraux comme Walter Lippman et Edward Bernays (auteur du célèbre ouvrage Propaganda - ndlr). Ce dernier ne s'arrêta pas en si bon chemin et fonda l'industrie de la communication [...] Un certain nombre de groupes en tirèrent la leçon. [...] En sortirent les théories sociopolitiques influentes qui se développèrent dans les années 1920. C'est l'un des socles des sciences politiques modernes, comme de l'industrie de la communication et des médias. Cette découverte - ce "nouvel art de la démocratie", selon la formule de Lippman -, c'est que nous disposons de méthodes, comme dit Bernays, pour enrégimenter "l'esprit public exactement dans la même mesure qu'une armée enrégimente les corps de ses soldats [...]" C'est la démocratie qui leur fournit le terreau approprié. Car, en démocratie, on doit contrôler l'esprit public, la force étant exclue ou du moins réduite. A partir du moment où il faut enrégimenter et marginaliser les gens, en faire des "spectateurs de l'action", pas des "participants", selon l'expression de Lippman, on doit avoir recours à la propagande ... ». Pour illustrer ce propos et en mesurer son actualité, n'évoquons que cette affirmation plus récente : « L'Irak possède des armes de destructions massives ». Si les collectivités territoriales - sauf exception rarissime, peut-être lorsque le Front National décrocha quelques villes du sud-est de la France au siècle dernier - ne sont pas, loin s'en faut, le cadre habituel de tels agissements, le recours à la communication comme outil d'influence de l'opinion - et de l'électeur -  est sans doute très tentant encore aujourd'hui.

2 - L'information : il suffit de dire pour être entendu

Puis vint la phase "journalistique". La communication publique territoriale commence et s'arrête au seul journal ou au seul magazine, baptisé plutôt à l'époque "bulletin". Les dircoms d'alors sont de préférence d'anciens journalistes, seuls professionnels sachant écrire aux yeux des élus locaux. Certes l'objectif premier de ce mode de communication est, en apparence, de délivrer de l'information. Pour autant, on se doute que les suggestions glissées entre les lignes sont des héritières directes de la phase précédente. Mais surtout, le grand écueil de cette phase est d'avoir fait croire que les théories de l'information s'appliquaient à la communication. C'est le triomphe de la vision linéaire de Shannon et Weaver, le modèle linéaire de la communication ("one-step flow") : il suffit qu'un émetteur envoie une information à un récepteur pour qu'il la reçoive. Le travail est donc ici exclusivement d'envoyer un message et de se préoccuper principalement de la manière dont on centre l'information autour de l'émetteur, sujet quasi unique de ces bulletins, qu'il soit explicite ou implicite. Pour le reste ...

3 - La communication "surdouée" : génération "La force de la publicité tranquille"

Puis virent les années 1980. Une nouvelle génération de jeunes élus - souvent fraîchement en poste à la suite des municipales de 1983 (parmi les symboles de l'époque, notons le nouveau et jeune maire de Grenoble, Alain Carignon) - firent entrer de plain-pied les collectivités dans la phase "publicitaire", accompagné en cela par un certain nombre de grandes agences parisiennes qui découvraient avec gourmandise ce nouveau marché. Rappelons néanmoins quelques précurseurs des années l960, en l'occurrence Jean Lecanuet, premier candidat en France à mener une campagne électorale à l'américaine à grands renforts de communication et, à son service, Michel Bongrand, premier conseiller (médiatique) en communication politique, du moins en communication électorale. De plus, les lois de décentralisations de 1982 donnant de nouveaux pouvoirs (et de nouvelles responsabilités) aux édiles locaux, ils se devaient aussi de communiquer plus largement. Alors, les blasons furent remplacés par des logos (avec une domination notoire du bleu et du vert), les bulletins municipaux par des "city news" (celui de Grenoble fut sans conteste le modèle suivi par beaucoup) et les fêtes populaires par de l'évènementiel. On copia/colla les techniques utilisées pour vendre des produits du privé afin de promouvoir les collectivités et les slogans devinrent les nouvelles devises : « Brest, une ville du tonnerre », « Nantes, l'effet côte ouest » ou encore le détonnant « Montpellier, la surdouée ». Mais, dans la plupart des cas, la tendance au mimétisme des collectivités fit apparaître une multitude de « Ville à la campagne » et de « Carrefour de l'Europe ». Cette période a marqué le début de la professionnalisation de la fonction de "dircom", ce qui loin d'être négligeable. Néanmoins, elle fut néfaste en de nombreux autres points. Premièrement, laissant toute la place aux publicitaires, elle laissa croire que la stratégie ne pouvait venir que de l'extérieur, que les professionnels et stratèges de la communication étaient forcément externes à l'institution. Les dircoms étant cantonnés dans un rôle de technicien, d'exécutants, très pointus certes, mais n'ayant pas à remettre en cause les conclusions des audits. Deuxièmement, elle fut terriblement dispendieuse. Les budgets explosèrent, pour des résultats peu palpables, pour ne pas dire catastrophiques. Lorsque Thierry Saussez évoque cette période dans son ouvrage Le temps des ventriloques, il ne peut que reconnaître : « De ces années-là ; on n'aura retenu que les paillettes, les sun-lights, la "débauche" de moyens, la frénésie d'initiatives ... ». Troisièmement, elle contribua à laisser croire que les résultats des urnes étaient proportionnels aux sommes engagées. Les élus se sont beaucoup fait mousser puisqu'on les a vendus comme des lessives ! Souvenons-nous également que cette décennie fut marquée d'entrée par la victoire de François Mitterrand aux présidentielles de 1981, conseillé pendant sa campagne par Jacques Séguela et dont le célèbre slogan « La force tranquille » a longtemps été lu comme une des clefs de la victoire de la Gauche. Même si Séguéla lui-même prit la précaution de déclarer que s'il suffisait de mettre sa photo sur une affiche pour se faire élire, "ségualomane" comme il était, il aurait immédiatement mis son portrait, la piste de la recette miracle tint longtemps la corde. La suite prouvant que les résultats des urnes étaient souvent indépendants des budgets engagés dans la communication, nombre d'élus en sont sortis désenchantés et méfiants. Les professionnels d'aujourd'hui ont toujours fort à faire pour redonner quelques volumes à leur budget : ce sont toujours les crédits les plus suspects car, d'une part, leur affichage est politiquement dangereux ; ils sont d'ailleurs aujourd'hui encore régulièrement cloués au pilori par les oppositions locales. D'autre part, ils semblent les plus inutiles, comparés aux autres dépenses publiques. Enfin, et c'est le quatrième point, elle contribua au désenchantement du citoyen pour la chose publique, cette dernière se comportant comme une grande entreprise mais mélangeant avec maladresse la logique du secteur privé avec celle du secteur public. En 1995, dans un article du n°32 de La lettre de Communication publique (de l'association éponyme), Dominique Bessières concluait en ces termes : « L'entreprise tente de s'insérer dans l'intérêt général par le mécénat, la publicité, avec l'intention de renforcer sa légitimité en tant que composante de la société (thème de l'entreprise citoyenne). Parallèlement, la politique s'achemine vers des comportements du privé ; les conseillers en communication incarnant une logique de marché au sein de l'espace public. Il en résulte que la séparation ancrée dans les représentations collectives entre ces deux espaces s'amenuise progressivement. Ce mouvement semble responsable pour partie de l'actuelle désaffection, voire du désenchantement, mesuré dans l'opinion envers le monde de l'entreprise et celui du politique. Un nouvel équilibre, pour l'heure, n'a pas encore été réalisé pour intégrer ces mutations, même si les lois récentes contribuent à en définir les contours ... ».

4 - 3615 code "compublique.com" : priorité aux instruments

Et un jour, la France passa directement des annonces du garde-champêtre aux informations délivrées par une boîte magique : le Minitel. La communication "high-tech" était née (années 1990). Quatrième phase qui connut ses heures de gloire avec les serveurs télématiques et les bornes interactives diverses sur le domaine public - celles qui n'ont jamais fonctionné - et qui a su trouver un nouveau souffle avec internet puis, désormais, avec les réseaux sociaux et les objets nomades interactifs. Le principal écueil de cette phase est d'avoir donné la primauté au contenant face au contenu. L'enjeu, au moins au début de cette phase, résidait plus dans le pouvoir de faire imprimer au bas des cartes de visites l'adresse d'un « 3615 ville de ... », puis une adresse en trois w, que de se préoccuper des services et des messages mis à la disposition du public. Pensant en priorité "objet" avant de penser "stratégie", on a souvent confondu les concepts. Comme la phase publicitaire a préféré (ou mélangé) les plans médias aux stratégies de communication, contenant et contenu, esthétisme et ergonomie, interactivité et participation, gadgets médiatiques et innovations citoyennes furent autant d'amalgames quelquefois très onéreux et malheureusement éphémères. Une certaine maturité s'acquérant avec la pratique et sous la pression des usagers sollicitant de nouveaux services, les pratiques semblent aujourd'hui plus adultes. Même si parfois les concepts du web 2.0 - surtout lorsqu'il s'agit d'évoquer le fait de donner de réelles priorités à l'humain, donc à son expression et à la coproduction de contenu - ont du mal à être pris en compte par les collectivités territoriales. Retenons enfin que si les dircoms publics avaient réussi tant bien que mal à se faire une place aux côtés des directions générales et des Cabinets d'élus en renvoyant à leurs si chères études les consultants extérieurs, l'avènement de cette phase fit apparaître un nouveau challenger, résolu à entrer lui aussi et coûte que coûte dans la lumière, le direction informatique. D'ailleurs, n'a-t-il pas mis dans l'intitulé de son poste « Directeur des technologies de l'information et de la communication » ? L'histoire donna alors un coup de pouce aux communicants ... Voir ci-après.

5 - L'Autre : unique objet de ma communication

Puis, il y eut une prise de conscience. On constata que, décidemment, quoiqu'on en pense et même si cela complique bougrement les choses, le plus important dans la communication, c'est l'Autre ! Et comprendre comment fonctionne l'Autre n'a plus semblé être un détail, car plusieurs décennies de communication territoriales avaient régulièrement prouvé l'intérêt pour le communicant de s'adapter à sa cible, plutôt que le contraire.  La phase relationnelle était née ! Enterrant définitivement les théories de l'information linéaire, les techniques de la réclame publicitaire et luttant contre la suprématie de l'outil face à l'utilisateur, elle a consacré l'avènement des sciences humaines et des théories modernes de la communication. Notamment celles qui démontrent qu'oublier que toute communication déclenche une réaction, une boucle de rétroaction, un feed-back, revient à nier que tout récepteur est, simplement, vivant. On osa alors s'intéresser à la communication interpersonnelle. On n'alla même jusqu'à analyser non pas la seule communication, mais bien l'ensemble du dispositif dans lequel elle se déroule. Alors, on pensa psychologie sociale, dynamique des groupes, complexité, approche systémique, ... Et depuis, sur les tables de chevet des dircoms publics les bibles des chantres de la publicité ont cédé la place aux ouvrages de Palo Alto et signés par le "collège invisible" de Paul Watzlawick, ceux de Roman Jakobson, Emile Durkheim, Erving Goffman, Kurt Lewin, Edgar Morin, Joël de Rosnay, Roland Barthes, Pierre Bourdieu, Yves Winkin, Dominique Wolton, .... (par contre Lucien Sfez reste en option). Et comme le hasard fait bien les choses, cette prise de conscience coïncida avec une période où, d'une part, nombre de citoyens se mobilisèrent pour faire entendre leurs voix dans les débats publics et où, d'autre part, un cadre législatif institua la facilité d'accès aux documents administratifs et, surtout, en 2002, l'obligation d'instaurer et d'institutionnaliser le dialogue avec les citoyens. Cette dernière loi, consacrant la concertation, mise en œuvre aussi pour tenter de répondre à la crise de la démocratie dite "de représentation" - rendue visible régulièrement par des taux d'abstentions record aux élections - par la formalisation de la démocratie dite "de participation" aux travers des conseils de quartiers et des conseils de développements. Ainsi, par prise de conscience, pression citoyenne et par la loi, on est sorti de l'instrumentalisation de la communication publique pour en revenir aux fondamentaux : mettre en relation, créer des liens, les maintenir et favoriser l'échange. Au cours de l'édition 1996 du Cap'Com, le Ministre de la Fonction publique et de la Réforme de l'État de l'époque, Dominique Perben, avançait : « La communication institutionnelle publique a évolué. Après des emballements, parfois des illusions, ayant pu faire l'objet de jugements pas toujours positifs quant au gaspillage de fonds publics, [cette communication] est entrée dans une phase plus sérieuse, plus approfondie. Une certaine sérénité permet le tri. Quels messages ? Quels publics ? Comment favoriser l'échange ? ... ». Il convient toutefois de rester autant que faire se peut objectif, les collectivités ne sont pas devenues des agoras permanentes et égalitaires et le "tout concertation" a entraîné certains effets pervers. Toutefois, plus que les précédentes, cette phase est sans aucun doute un cliquet qui interdira tout recul, toute tentation de revenir en arrière. Aujourd'hui, l'Autre est bien au cœur des enjeux de la communication. Et il y restera.

6 - Une communication « marquée » pour être remarquée

Désormais - et l'on peut entrevoir les prémisses de cette phase actuelle, la sixième, dès le début des années 2000 - lentement mais sûrement, le marketing fait son entrée dans les collectivités territoriales. Largement mises à contributions lorsque le Gouvernement a mis en place les pôles de compétitivité (2003/2004), les collectivités se sont alors préoccupées de la compétitivité de leur territoire et de leur attractivité. De plus, elles ont regardé autour d'elles et ont alors considéré leurs voisines en rivales, en "concurrentes" dans un nouveau "marché", celui qui consiste à attirer habitants, cadres, entreprises, investisseurs, grands projets culturels, feux des medias, etc ... Dans ce domaine, comme dans d'autres vus précédemment, une certaine universalité des pratiques (voir les argumentaires centrés sur les avantages fiscaux, le développement durable, l'évènementiel, ...) a entraîné une banalisation des actions de communication. L'équation à résoudre se pose en ces termes : « L'attractivité des territoires est un marché. Sur celui-ci, les collectivités se posent en concurrentes. Pour l'heure, chacune déploie les mêmes arguments. Donc aucune ne ressort. Par ailleurs, le peu de marketing pratiqué jusqu'à présent est celui de l'offre, pas encore celui de la demande. Cela ne fonctionne pas ! ». Les collectivités ont d'abord tenté de résoudre ce problème exclusivement en termes d'images, quitte à confondre l'image avec l'identité (le syndrome de Dorian Gray ?). Résurgence de la phase publicitaire et application d'une méthode chère à ce domaine, « faire toujours plus de la même chose » ... jusqu'à ce que quelqu'un ait enfin l'idée de juste « faire autre chose » (passage du changement 1 au changement 2 diraient les hommes de l'université de Stanford) et d'oublier les modes éphémères pour tenter de déceler les tendances de fond. Ainsi, petit à petit, un glissement des pratiques a permis de ne plus être centré sur les institutions mais sur les territoires et de chercher à se démarquer en s'appuyant sur une richesse a priori unique pour chaque territoire, son identité et ses composantes. De la promotion fondée sur les performances des projets publics, on est passé à la promotion fondée sur la notoriété des collectivités ou de leurs élus et, désormais, les pratiques s'orientent sur des actions de valorisation des territoires fondées sur les valeurs de ce territoire. Les  argumentaires ne cherchent plus  à utiliser les mêmes structures. Chacun cherche au contraire ce qui lui est unique, ses réels discriminants. Nous entrons dans l'ère de la territorialisation de la communication. A ce phénomène tourné vers l'extérieur, s'en ajoute un autre, tourné lui vers l'intérieur. Cibles des traditionnelles actions de communication, les composantes du territoire sont devenues également des arguments de promotion. Voir à ce sujet les thèses de Richard Florida. De plus la mobilité humaine a entraîné des déracinements en nombre. Les territoires changent et leurs composantes humaines sont nouvelles et variées, donc non porteuses de la mémoire collective locale. Ainsi, un souci identitaire se fait jour, pour fédérer toutes ces populations, repartager une histoire, et redonner du collectif dans un tissu humain très individualisé. Ceci nous renvoyant immédiatement aux débats nationaux sur l'identité française et aux supposées manœuvres implicites (et peu avouables) qui les sous-tendent. Mais puisque l'objectif de ce billet n'est d'évoquer que la communication des collectivités, restons-en bien à cela. Les collectivités sont donc, d'une part, amenées à recréer du lien avec toutes leurs composantes et, d'autre part, à s'appuyer sur ces mêmes composantes (à observer en particulier les actions menées autour du PoissyVilleConnectée, la référence actuelle) pour promouvoir, à l'extérieur et de manière unique, discriminante, donc bien remarquable, l'ensemble. D'où l'émergence d'actions de communication particulièrement centrées sur les stratégies de marques, sur le branding. Aujourd'hui fleurissent ses campagnes identitaires et marquées. Voir à ce sujet le dossier de La Gazette des Communes du 14 février 2011. Le temps devrait, comme d'habitude, réguler l'ensemble et faire acquérir une saine maturité des pratiques. Le temps devrait aussi dire si les dircoms publics occupent bien leur place dans ces nouvelles stratégies. Stratégies investies pour l'heure en priorité par les agences de développement économiques, ainsi que les présences (ou absences) semblent le démontrer dans les salons dédiés comme le sont le SIMI à Paris ou le MIPIM à Cannes.

Et demain ?

Les phases que nous venons de survoler peuvent aussi être lues comme des modèles communicationnels dont certains sont toujours employés dans les collectivités. Rien d'étonnant. Ce qui semble plus remarquable, c'est que la place du dircom public paraît éternellement à conquérir, tant d'autres acteurs souhaitent visiblement investir ce champ public. Aux dircoms donc de s'adapter, de se former, de faire évoluer leurs pratiques et leurs champs théoriques de référence. Ils ont supplanté les journalistes dans les postes-clefs. Ils ont survécu aux gourous de la communication des années 80. Ils ont contourné les informaticiens dans les années 90. Ils ont ramené de la théorie dans un univers supposé n'être composé que de trucs, d'astuces et de recettes miracles. Ils ont réussi à recentrer la communication, au moins en apparence, vers les cibles, vers les habitants (même si la défiance vis-à-vis des politiques reste de mise). Arriveront-ils à trouver leur place face aux côtés des CM (community manager), des marketeurs ou des développeurs territoriaux ? Ou devront-ils se cantonner aux campagnes de communication sur la propreté, les déjections canines et autres campagnes anti-graffiti ? Rendez-vous dans 10 ans ?

Une histoire de la communication publique

À la une rédigé(e) par Marc Thébault le 3 mars 2011
Publié(e) dans la catégorie Initiatives
Thèmes abordés :

LA RÉVOLTE DU PRONÉTARIAT

Des mass média aux média des masses

Les citoyens du monde sont en train d’inventer une nouvelle démocratie. Non pas une « e-démocratie», caractérisée par le vote à distance via Internet, mais une vraie démocratie de la communication.

Cette nouvelle démocratie, qui s’appuie sur les « média des masses », émerge spontanément, dynamisée par les dernières technologies de l’information et de la communication auxquelles sont associés de nouveaux modèles économiques. Ni les média traditionnels, ni les hommes politiques n’en comprennent véritablement les enjeux. Les média des masses, seuls véritables média démocratiques, vont radicalement modifier la relation entre le politique et le citoyen, et, par voie de conséquence, avoir des impacts considérables dans les champs culturel, social et politique. Les internautes commencent seulement à réaliser à quel point le Net du futur va leur permettre d’exercer leur pouvoir, si tant est qu’ils parviennent à se montrer solidaires et organisés.

On appelle « pronétaires » ou « pronétariat » (du grec pro, devant, avant, mais aussi favorable à, et de l’anglais net, qui signifie réseau et est aussi l’appellation familière en français d’Internet – le «Net») une nouvelle classe d’usagers des réseaux numériques capables de produire, diffuser, vendre des contenus numériques non propriétaires, en s’appuyant sur les principes de la « nouvelle nouvelle économie ». C’est-à-dire capables de créer des flux importants de visiteurs sur des sites, de permettre des accès gratuits, de faire payer à bas prix des services très personnalisés, de jouer sur les effets d’amplification…

La production massive et collaborative d’informations numériques par le pronétariat représente une révolution aussi importante que celle du début de l’ère industrielle, symbolisée par la machine à vapeur puis par la mécanisation et l’automatisation intensives.

Aujourd’hui, avec les nouveaux outils d’empowerment qui confèrent du pouvoir aux pronétaires et qui s’appuient sur le numérique (logiciels et outils de production sur PC et Web), la révolution est encore plus marquée et plus rapide.

La création collaborative et le partage se situeront à tous les niveaux dans l’Internet de demain. Comme un organisme vivant, Internet connaît en effet une nouvelle et spectaculaire évolution.

Des réseaux de pouvoir au pouvoir des réseaux : naissance de nouveaux modèles économiques

Le nouveau pouvoir en train de se constituer, encore embryonnaire, crée ainsi un changement d’équilibre des forces. Non seulement entre les média classiques et les média émergents, mais également entre les structures politiques, industrielles, les institutions traditionnelles et les nouvelles structures civiles citoyennes. Dans le mode « tous vers tous », les modèles économiques que l’on connaît, fondés sur la gestion de la rareté, ne s’appliquent plus. La gestion de la rareté s’est progressivement transformée en un modèle économique de pouvoir qui revient à créer de la rareté de façon à générer du profit. Cette création de rareté s’observe aujourd’hui dans de nombreux domaines : ce sont par exemple les vectorialistes qui réclament des mesures juridiques à l’encontre des internautes téléchargeant gratuitement de la musique sur Internet, afin de forcer les utilisateurs à passer par les majors incontournables de la musique.Dans l’optique infocapitaliste et vectorialiste traditionnelle, pyramidale, où quelques-uns se partagent le pouvoir, créer de la rareté est vital. Les grands pouvoirs fabriquent artificiellement des manques de manière à ce que les usagers ne puissent avoir accès aux produits et services dont ils ont besoin qu’en passant par leurs circuits et chaînes de commercialisation. C’est le cas par exemple de l’énergie, et en particulier du pétrole : une douzaine de grandes compagnies pétrolières contrôlent l’ensemble de l’énergie mondiale. Le manque est dans ce cas créé par l’organisation coordonnée de l’excès de consommation. Même situation dans la haute finance internationale : quelques organismes financiers détiennent le pouvoir d’agir sur les taux d’intérêt, et même sur la Bourse. Le modèle est identique dans la communication, le commerce de l’art, de la drogue ou de l’armement… Comme le dit très bien Michel Serres, nos sociétés modernes sont « des sociétés de la mise en scène de la peur ». Le journal télévisé de 20 heures s’appuie, pour créer de l’audience, sur la quantité de morts et sur des faits divers relatés avec force détails : actes de terrorisme, feux de forêt, inondations, catastrophes aériennes, accidents de la route, désastres écologiques, scandales financiers, etc. Cette mise en scène profite non seulement au monde médiatique mais aussi aux mondes politique et juridique, qui ont besoin, pour exister, de susciter directement ou indirectement une peur permanente afin de pouvoir proposer des plans pour y remédier. Ainsi, la gestion de la rareté va de pair avec celle de la peur.Toutes ces peurs, alimentées quotidiennement par les grands canaux d’information, contribuent à faire pression sur les citoyens et à les obliger à accepter des contraintes de plus en plus sécuritaires, ou encore à passer par les vecteurs de distribution des entreprises les plus puissantes.

De la gestion de la rareté à celle de l’abondance

Depuis quelque temps le paysage change. Le public croit de moins en moins aux messages des vectorialistes et fait de moins en moins confiance aux média traditionnels. Chaque jour, des journaux multimédia en ligne, les journaux citoyens, se créent un peu partout sur la planète. De plus en plus de sites Web et de blogs proposent aux internautes d’écrire leurs propres articles et de concurrencer les journalistes professionnels. La gestion de la rareté est progressivement remise en cause par la gestion de l’abondance. «Abondance» est un mot particulièrement difficile à prononcer dans un monde où 60% de la population des pays en développement vit au-dessous du seuil de pauvreté 1. Mais de fait nous sommes entrés, avec la société de l’information, dans l’ère de l’abondance numérique. Alors que l’ère de la société de l’énergie est fondée sur le zero sum game (le jeu à somme nulle : si je donne mon argent ou un bien matériel, je le perds) de la «théorie des jeux » utilisée en économie, l’ère de la société de l’information repose sur le stockage et la circulation de flux numériques (images, textes, sons, monnaies…). C’est le non zero sum game (le jeu àsomme positive : je peux enrichir l’autre sans m’appauvrir).Selon la théorie des jeux, ce que j’ai, je le conserve. Dans ce système, l’internaute qui enregistre une musique peut créer de la valeur ajoutée en la transformant et en la rediffusant. La valeur ajoutée classique se crée de manière linéaire : un produit brut se transforme en produit semi-fini, puis en produit fini. Dans la société de l’information, non seulement le numérique ne se perd pas, mais sa vie se poursuit. À la différence de ce qui se passe dans la société de l’énergie, dans la société de l’information le fait de donner quelque chose en confère la propriété au bénéficiaire mais n’en dépossède pas celui qui donne. Cela produit un effet boule de neige, un effet win win (gagnantgagnant) : l’information reçue peut être une information investie qui va servir une nouvelle fois, ailleurs, via d’autres sources. Ainsi, dupliquer du numérique ne coûte pratiquement rien.

Il est difficile, sur le Net, de savoir si un auteur de musique ou de vidéo est un auteur original ou s’il a emprunté des éléments vidéo ou musicaux à un autre. La valeur ajoutée de ce système se situe dans la création, l’innovation, l’invention, même si le résultat est une combinaison d’éléments qui existent déjà. Elle est importante dès lors que se crée une synergie entre plusieurs niches et entre plusieurs effets qui se cumulent, s’amplifient, ou s’autocatalysent : ce qui est alors engendré, c’est de la «valeur ajoutée matricielle par synergie de niches ». L’effet autocatalytique du développement de l’information signale l’ère de l’abondance numérique. Les grands média et les grands pouvoirs traditionnels ne semblent pas encore avoir compris que l’abondance numérique va remettre en question le modèle économique classique de gestion de la rareté. Dans ce contexte, la notion de propriété intellectuelle attachée à la propriété territoriale, telle qu’on la connaissait jusqu’à présent, doit être appréhendée sous un autre angle.Pour Valérie Peugeot, de l’associationVecam, «l’abondance intrinsèque de l’information, devenue reproductible à volonté et à très faible coût grâce à la numérisation, rend inopérante toute tentative d’importer des règles venant de la propriété des biens matériels pour les appliquer au champ de la propriété intellectuelle. Ceux qui parlent de renforcement des droits de propriété intellectuelle s’inscrivent dans une course éperdue, et vraisemblablement sans issue, pour recréer artificiellement de la rareté par des mesures juridiques ou techniques1

Le modèle économique classique, celui qu’on nous enseigne à l’école, consiste à gérer la rareté de façon à ce que chacun en reçoive une petite part. Mais quand survient l’abondance – si par exemple l’énergie devient disponible de façon illimitée et bon marché, ou l’eau potable de bonne qualité et gratuite –, les données du système économique changent radicalement. De même que les industriels créent artificiellement un univers de rareté pour préserver leur monopole, les politiques et les élus, qui exercent le pouvoir pour une durée limitée, entretiennent à dessein une manière d’exercer le pouvoir qui en renforce la nature exclusive. De fait, il n’y a qu’un seul président de la République, un seul Premier ministre… Mais, au lieu de se vivre comme des animateurs de collectifs, des catalyseurs dans des processus coopératifs, ils se positionnent en décideurs ultimes, accentuant l’idée de rareté associée au pouvoir. Le jeu des partis politiques consistera notamment à offrir à l’un ou l’autre d’entre eux l’appui nécessaire au bon moment pour vaincre ses adversaires. Le pouvoir ne se partageant pas, les leaders jouent la montre, le réseau, les rapports de forces, pour tenter de rester au sommet de la pyramide. Ils ressentent tout naturellement la montée des nouveaux pouvoirs, et particulièrement celui des média des masses, comme une menace, alors qu’il s’agit d’une forme d’expression démocratique, certes encore rudimentaire.

Savoir lutter contre l’infopollution :la veille intelligente

Historiquement, au cours des siècles, nous sommes passés d’une société à dominante agricole à une société industrielle (société de l’énergie), pour atteindre finalement ce qu’on appelle communément la société de l’information. L’avènement de l’électronique, de l’informatique et le développement des télécommunications a naturellement marqué ce passage. La télévision par satellite et surtout Internet ont amplifié le phénomène de manière radicale ces dix dernières années. Cette brusque accélération a bouleversé les notions de  temps et d’espace. En conséquence, on constate une contraction croissante du temps nécessaire pour collecter, traiter et analyser les informations nécessaires à une prise de décision efficace. En revanche, il faut plus de temps pour filtrer, donner du sens, classer et diffuser cette information pléthorique. Car, en réalité, nous vivons dans une société de la surinformation et de la désinformation.L’ensemble des média véhiculent en permanence une masse de données difficiles à analyser, à valider, voire à comprendre. Les grandes entreprises qui, depuis des années, mettent en place des dispositifs plus ou moins perfectionnés de recherche d’informations, de knowledge management ou des cellules de veille ont été les premières à sentir le vent du changement.

Aujourd’hui, l’objectif de FranceWeb est de démontrer que la recherche d’informations et la veille individuelle vont continuer de se développer et d’évoluer grâce à Internet. En d’autres termes, il s’agit d’expliquer pourquoi Internet constitue un « accélérateur » favorisant le développement de l’intelligence individuelle (et non pas uniquementde l’intelligence économique). Il faut pour cela établir un parallèle entre l’entreprise (intelligence économique) et l’individu (intelligence individuelle) qui permettrait de vérifier si, confrontés à des problèmes en apparence similaires, les individus adoptent une démarche ou des solutions identiques à celles mises en oeuvre par les entreprises 1. L’objectif est notamment d’essayer d’étendre les principes de la science de l’information appliquée à Internet (sans les cantonner uniquement à l’univers de l’entreprise) et de promouvoir la recherche d’informations afin qu’elle devienne une discipline d’étude à part entière. La clé d’une telle approche, que l’on retrouvera dans le cadre du journalisme citoyen, consiste à informer le grand public des risques de la surinformation et de la désinformation en lui apprenant à les détecter et à les contrer, ainsi qu’en lui fournissant des outils efficaces pour trouver la bonne information et la valider en vue d’une prise de décision rationnelle et optimale.

En raison de ce « bombardement informationnel », il est plus que jamais indispensable d’observer la plus grande prudence vis-à-vis des informations que l’on nous communique, même si celles-ci proviennent de sources proches ou fiables. En effet, en dehors des cas de manipulation flagrante ou volontaire, personne n’est à l’abri d’informations fausses, même si elles paraissent vraisemblables. La prolifération des média et des sources d’information ainsi que la difficulté liée au processus de « fiabilisation » font que désormais n’importe qui peut, même en toute bonne foi, être un vecteur de désinformation. Avec les informations colportées par Internet, le phénomène a atteint son paroxysme. Idéalement, il faudrait être «méfiant » vis-à-vis de toute information disponible sur le Web et disposer d’outils et de méthodes pour en vérifier la fiabilité et la pertinence. Cela n’est pas toujours ni réaliste, ni réalisable. La profusion actuelle d’informations est telle que personne n’est réellement en mesure de contrôler l’authenticité des faits et des événements. Quand un fournisseur annonce, par exemple, qu’un produit n’existe plus, le client potentiel ne dispose pas toujours du temps ni de la motivation nécessaires pour vérifier ses dires. De la même manière, si un revendeur informatique annonce que telle carte vidéo est incompatible avec votre ordinateur, il faut vous en assurer sur Internet. Les combinaisons informatiques étant quasiment infinies, il est souvent impossible de proférer de telles assertions en toute certitude. Au-delà des entreprises, ce qui va donc révolutionner les comportements individuels sur Internet, c’est bien cette attitude de « veilleur ». Elle consiste à garder les yeux ouverts pour se cultiver et s’enrichir, que l’on cherche à dénicher une information inédite, à vérifier une rumeur, à accroître ses connaissances, à forger ses croyances, à comparer les prix avant d’acheter un livre, à identifier le chirurgien qui a mis au point la dernière technique pour soigner une maladie rare… Cela dit, avoir un accès illimité aux informations ne signifie pas pour autant disposer d’un accès automatique au savoir, et, par conséquent, cela n’entraîne pas à coup sûr un « enrichissement personnel ». Encore faut-il disposer du bagage intellectuel et cognitif adéquat. C’est là tout le défi auquel sont confrontés les systèmes éducatifs du XXIe siècle.

Accessibilité, pertinence et fiabilité de l’information

De nombreux problèmes caractérisent les informations issues des nouveaux supports électroniques, tant au niveau de leur contenu que de leur pertinence et de leur fiabilité. Les adolescents, naturellement, sont les premiers concernés, puisqu’ils subissent directement les assauts qu’engendre une société dominée de façon croissante par les nouvelles technologies et par l’accès instantané à l’information. Dans une économie de plus en plus immatérielle, demeurent quelques paradoxes liés à l’information.

Comme le fait remarquer Charles Goldfinger depuis longtemps, « plus l’information est abondante, moins on dispose de temps pour la traiter, plus il y a de chances de mal interpréter les données disponibles et de manquer l’information pertinente. La seule solution est de s’immerger davantage dans le torrent de l’information. Ainsi se crée l’accoutumance informationnelle : on n’en a jamais assez, quelle que soit la quantité disponible. Or la richesse de l’information ne garantit nullement une utilisation plus intelligente. Sa prolifération même rend plus ardue l’identification d’éléments pertinents 1 ». On arrive ainsi à une situation dans laquelle il y a trop de données mais pas assez d’informations pertinentes. Les données en elles-mêmes apportent une valeur ajoutée très faible. C’est à travers un minutieux travail de recherche, de recoupement, de validation, d’analyse et de synthèse que s’opère la « métamorphose » de milliers de données inutiles en un petit nombre d’informations pertinentes et fiables. C’est de cette manière que procèdent les services de renseignements dans le monde. Sans recoupement, contextualisation, rassemblement, l’information glanée sur le terrain est souvent inutilisable. Sur Internet, ce phénomène est encore plus marqué.

En effet, face à un potentiel informationnel incontestable, demeurent toujours les quatre problèmes majeurs que Carlo Revelli avait décrits dès 1998 2. L’information est difficilement accessible : tout expert le reconnaîtra : la recherche d’informations n’est pas toujours facile sur les réseaux et sur les bases de données en ligne. Sur Internet, c’est encore pire.L’extrême liberté qui est à l’origine du succès du Web dégénère parfois en anarchie complète.Aucun standard ni aucune réglementation ne sont imposés aux fournisseurs d’informations. Les différents moteurs de recherche existants (Yahoo, MSN, Google…) peuvent réagir de manière différente à une même requête. Il se peut que neuf moteurs de recherche sur dix ne trouvent rien et qu’enfin, miraculeusement, le dixième donne un résultat. Parfois, il suffit de formuler à nouveau la requête pour que les autres moteurs fournissent de meilleures solutions. Très souvent, on renonce, convaincu que l’information recherchée n’est pas présente sur la toile… En plus de ces problèmes liés à la recherche d’informations sur Internet, il ne faut pas oublier ceux qui sont inhérents à la difficulté d’accès à l’information. Comme le précise justement Jacques Perriault, «même si le grand public acquiert progressivement une habileté à employer les méthodes numériques, l’écart entre les potentialités des systèmes numérisés d’information et les compétences des utilisateurs ne s’est pas résorbé au cours des trente années d’usage, et bien au contraire, il s’est maintenu, sinon accru 1 ». L’utilisation d’Internet et des moteurs de recherche n’est pas forcément simple pour des personnes non averties. L’information est trop abondante : le caractère pléthorique des informations obtenues se vérifie encore plus fréquemment. Il arrive souvent, pour une requête bien précise, que l’on trouve une infinité de résultats. C’est à la fois l’avantage d’Internet et son point faible, car toute requête génère presque toujours trop de ressources. Celles-ci, même si elles sont en relation avec le sujet, ne satisfont que rarement la demande, souvent très spécifique et pointue.

Trop abondante, l’information récoltée est aussi souvent peu pertinente. Aucun des moteurs existants n’est suffisamment perfectionné pour fournir des résultats réellement ciblés et en adéquation avec les besoins de l’utilisateur. Dans le meilleur des cas, l’information spécifique recherchée est noyée dans une masse d’informations plus ou moins intéressantes par rapport au sujet. Dans le pire des cas, elle peut ne pas être présente du tout… Cependant, rareté et surabondance constituent les deux faces d’un même problème.

L’information se renouvelle sans cesse : Internet est le média où l’écrit se renouvelle le plus. L’extrême facilité de publication fait qu’une information peut apparaître à tout moment dans n’importe quelle sphère d’Internet. La première difficulté consiste donc à surveiller les évolutions dans un domaine donné. C’est d’autant plus compliqué que l’information « récente» ne remplace pas toujours l’information « datée ». En effet, il arrive souvent que différentes versions d’un même document soient publiées à divers endroits sur Internet. Le défi n’est donc pas uniquement de réussir à suivre le « rythme des news », mais surtout de ne pas se faire piéger par les informations périmées qui n’ont pas été supprimées. Aucun être humain n’a la capacité de suivre de manière exhaustive et précise l’actualité dans un secteur donné. Avec l’aide d’« agents intelligents », il pourra tenter d’y parvenir. On a vu que les fils RSS , permettant de suivre les modifications et mises à jour qui interviennent dans des blogs, apportent un début de solution à ce problème.

L’information n’est pas toujours fiable : la fiabilité de l’information sur Internet revêt une importance cruciale. En effet, il se peut qu’après avoir passé plusieurs heures à rechercher une information on se rende compte que son origine n’est pas fiable. Hélas, cela arrive plus souvent qu’on ne le pense, sur le Web en général et sur les blogs en particulier. On bute sur le plus grand avantage/ inconvénient d’Internet : l’extrême liberté qui y règne.Tout le monde peut s’y exprimer sans discrimination. N’importe qui peut développer une vitrine sur le Web, lancer son blog. Le meilleur et le pire sont intimement liés. Encore plus dangereuses sont les fausses informations. Comment savoir qui dit vrai et qui dit faux? Comment reconnaître ceux qui essaient de dissimuler le faux sous une apparence vraisemblable ? De plus, la même information peut se trouver sur d’innombrables sites, puisque sur les réseaux les informations peuvent être reproduites à l’infini. Comment connaître la source d’origine? Comment vérifier que le contenu d’un document reproduit n’a pas été altéré ? Nous verrons par la suite quelles sont les principales méthodes à la disposition du pronétaire pour lutter contre ces désagréments. La désinformation sur Internet a fait l’objet de nombreux articles et ouvrages. Comme le souligne justement Rémi Kauffer, «l’irruption d’Internet est en train de chambouler les méthodes traditionnelles de désinformation. Tout va très vite sur le Web, lui même se développant à toute vitesse. […] Le danger existe. Ce n’est pas une raison pour se muer en “internoparanoïaques” mais, au contraire, un motif supplémentaire de comprendre que demain plus encore qu’hier il faudra apprendre à vivre entre vérité et mensonge. Si la désinformation a de beaux jours devant elle, il ne tient qu’à notre vigilance, à notre réalisme, à notre technicité même qu’elle ne déborde pas les limites de l’acceptable ». Même approche pour Vladimir Volkoff, qui était persuadé qu’« Internet est en passe de devenir, comme la langue d’Ésope, la meilleure chose du monde et la plus mauvaise, car l’utilisateur qui est renseigné par son écran se figure naturellement que les renseignements qu’il reçoit sont “objectifs”. Loin de là […]. C’est toujours vers les mêmes sites, les mêmes solutions, les mêmes entreprises que sont dirigés la plupart des “surfeurs”, qui font rarement l’effort de chercher au-delà »

De l’intelligence individuelle au journalisme pronétarien

Internet semble être aujourd’hui à l’origine de nouveaux enjeux pour l’information et entraîner de nouvelles formes d’interactions. Chaque individu est en mesure de trouver sa place et de prendre activement part à la construction du Net, sans qu’interviennent les distinctions coutumières et particulières régissant le monde réel. En effet, la « hiérarchie sociale» semble atténuée et, à première vue, chacun peut participer, de manière anonyme ou non, de façon plus ou moins active, aux discussions dont les forums, les chats, les newsgroups, les blogs sont lesvecteurs ou outils les plus caractéristiques. Le phénomène du blog est d’ailleurs à rapprocher de nouvelles initiatives pronétariennes telles que les projets de journalisme citoyen ou « participatif », c’est-à-dire des sites qui éditent et centralisent des informations provenant d’individus – sorte de témoins/capteurs – qui proposent des articles, des images, de l’audio ou des vidéos.

Dans la même logique, le credo du site PoissyVilleConnectée est : « Nous sommes tous des capteurs d’information.» En d’autres termes, chacun de nous est susceptible de constituer une source d’information : les blogueurs, les utilisateurs d’Internet, les simples citoyens, les associations, les journalistes… Tout citoyen est un reporter en puissance, un «capteur en temps réel ».Aucune agence de presse ne peut poster un journaliste à chaque coin de rue ! Aucune agence, aucun organe de presse, aucun logiciel ne pourra disposer du formidable potentiel que représentent des milliers  de personnes agissant en réseau. Ce média peut ainsi devenir une véritable caisse de résonance. Il semblerait en effet qu’Internet contribue à développer une attitude de veilleur individuel. Le tri, dans une société où l’information est omniprésente et surabondante devient crucial. Dans un contexte de saturation de l’information, la ressource rare n’est plus la connaissance spécifique mais l’« attention », c’est-à-dire la capacité à traiter l’information.

Que recouvre exactement le terme « citoyen » ?

Le citoyen associé à FranceWeb ne se définit pas par une logique éditoriale dédiée à un thème, une éthique, une vision politique, un engagement militant, comme IndyMedia. Au contraire, il se caractérise par la notion de responsabilité et d’inscription dans la vie de la cité, sans orientation politique prédéfinie ou imposée. Il est important de différencier le journal alternatif qui véhicule une ligne éditoriale précise (animée par une idéologie et orientée par un groupe partisan et militant) du média qui fait uniquement appel aux individus, à leur sens civique, à leur attachement aux valeurs de solidarité et de liberté d’information, à leur capacité à capter, à sélectionner et à diffuser des informations intéressantes dans le but de les partager.

Dans ce contexte, FranceWeb souhaite contribuer à la construction d’une presse interactive, ouverte à toute personne souhaitant participer, collaborer, écrire dans une optique collective et autonome de l’information.

Intelligence collective et intelligence individuelle sont naturellement intimement liées entre elles et s’enrichissent mutuellement de manière vertueuse et itérative. En effet, l’enrichissement progressif des outils et des méthodes d’intelligence individuelle contribue à renforcer les potentialités des processus d’intelligence collective, et vice versa. Pour cette raison, nous pouvons parler d’intelligence collective et individuelle (ICI).

FranceWeb utilise un processus d’intelligence collective différent des wikis pour fiabiliser les informations publiées, en plus du filtrage à trois niveaux précédemment décrit, opéré par des veilleurs et des rédacteurs. Ce processus se fonde sur les contributions des lecteurs (commentaires). Dès qu’un article est publié, tout lecteur peut intervenir librement pour le commenter, le critiquer, le compléter, l’enrichir ou le dénoncer. L’auteur interagit ainsi avec ses lecteurs – qui, comme le dit Gillmor, sont parfois mieux informés que lui – afin de compléter et d’améliorer son article. Parfois, le comité de rédaction décide de supprimer un article après certains commentaires de lecteurs (notamment en cas de plagiat avéré).

Au-delà de ces différents processus d’intelligence collective, les pronétaires disposent de plusieurs méthodes individuelles faisant appel au «bon sens» et souvent inspirées d’applications en entreprise ou liées à l’intelligence économique. Premier conseil aux utilisateurs d’Internet : toujours vérifier la source des informations recueillies. Une dépêche de l’AFP ne sera fiable à 100 % que si elle est reproduite sur le site de l’AFP. Même les média clients de l’AFP. Vérifier une source peut aussi signifier contacter l’auteur, ou les éventuels experts mentionnés, afin d’obtenir confirmation des informations. Malheureusement, ce « retour aux sources » n’est pas toujours possible. Même au sein de sites officiels, des informations non fiables existent. Il s’agit làd’un problème profond lié au mode même de fonctionnement de notre société plutôt qu’à Internet. S’il est impossible de remonter à la source ou de contacter l’auteur, une recherche s’impose sur la personne ou l’éditeur du document pour vérifier sa fiabilité. Attention aux sources individuelles difficilement identifiables ! Si l’identification est impossible, la dernière solution est la suivante : essayer de faire valider l’information par un expert reconnu ouun spécialiste du secteur, notamment par les nouveaux intermédiaires, ou « infomédiaires ». Une deuxième précaution consiste à croiser plusieurs informations entre elles pour obtenir un renseignement cohérent à partir d’au moins deux sources différentes et indépendantes. On peut aussi croiser une information recueillie sur le réseau avec une source complètement indépendante d’Internet. Parallèlement, si un expert figure dans le document ainsi obtenu, il faut essayer de trouver d’autres publications signées du même auteur et vérifier la concordance des propos. On peut aussi essayer de dater le document, car sur Internet les informations périmées sont légion. Effectivement, l’information ne fait pas systématiquement l’objet d’une mise à jour. Dans l’idéal, la date doit figurer au sein du document. Si tel n’est pas le cas, il faut essayer de déterminer à quelle date le document a été publié sur le site. Il suffit pour cela d’accéder au code source, même si cette méthode n’est pas infaillible. Enfin, un critère «empirique», qu’il convient de garder présent à l’esprit, est le critère financier et matériel : est-ce que la personne qui a diffusé l’information a un quelconque intérêt financier ou matériel à ce que celle-ci soit validée et considérée comme fiable? Ou, à l’inverse, est-ce que l’émetteur a quelque chose à gagner s’il persuade l’utilisateur de la prétendue véracité de l’information? Le fait même de se poser ce type de question ne garantit pas la fiabilité d’une information, mais permet d’éviter certaines des manipulations que l’on peut rencontrer sur Internet.

Vers l’homme «augmenté» ?

Comme l’explique Tilly Bayard-Richard sur son blog, «l’idée de base du “tagging” est la suivante : l’inondation d’informations (texte, images, sons), ou “infopollution”, rend de plus en plus urgente et nécessaire une dose d’organisation, de classification, pour que les recherches donnent des résultats suffisamment pertinents, et que les informations puissent être partagées entre des communautés d’utilisateurs ayant des intérêts voisins. D’où l’idée disséminées sur la toile (géographiquement, et dans le temps) de regroupements virtuels (pas physiques), par thèmes (catégories, mots clés, tags), des informations . Le besoin n’est pas nouveau. On n’a pas attendu le Web pour savoir utiliser quand il le fallait des taxonomies, des thésauri, des ontologies, des index, des mots clés plus ou moins contrôlés, libres ou naturels, pour accéder à l’information même non numérique. Ce qui est nouveau avec les folksonomies, c’est qu’elles apparaissent au fur et à mesure des besoins, se constituent quasi naturellement, à l’initiative des créateurs d’information (auteurs) et des utilisateurs (lecteurs). Jadis, l’information était indexée, catégorisée par les auteurs seuls, au moment de la publication, jamais par ceux qui en avaient besoin. Il existe déjà des sites comme Technorati qui montrent bien ce à quoi on peut arriver en matière de syndication d’information sur le Web». Le phénomène du tagging contribue, à son niveau, à l’avènement d’un Web « sémantique », capable de retrouver les informations par leur contexte et pas seulement par des mots clés. Une forme d’«intuition » du Web, en quelque sorte… En réalité, ces concepts ont été popularisés sur Internet, d’abord par Del.icio.us (un service de gestion de bookmarks partagés et taggés), ensuite par Flickr (partage de photos). Un peu plus tard, c’est le moteur de recherche Technorati qui a permis d’utiliser les tags pour qualifier et classer les blogs. Comme le précise Didier Durand sur son blog, cette idée de classification du contenu Internet « par le peuple, pour le peuple, vient de recevoir le support d’un géant qui en accrédite ainsi le bien-fondé : Yahoo». Signalons enfin que Google a décidé de lancer lui aussi une version bêta d’un nouveau service qui prend en compte l’historique des recherches des utilisateurs afin d’améliorer la performance des résultats. Tout ce qui pourra être évalué par une collectivité dans l’intérêt d’une collectivité le sera. On est loin des critiques de films ou de livres, toujours signées par les mêmes personnes, qui paraissent dans les journaux ou sont diffusées par les radios. Le mode de fonctionnement des jurys pourrait également se trouver bouleversé. Ces nouveaux moyens de marquage numérique montrent que l’innovation est en train de naître à partir des internautesde la base, du , et ne constitueplus le seul privilège des entreprises traditionnellesd’Internet.

Des consommateurs partenaires de l’entreprise ?

Nous l’avons vu, la nouvelle nouvelle économie pose des problèmes culturels, politiques, sociologiques et économiques immenses. Par exemple, les entreprises doivent remettre en question les techniques qu’elles utilisent actuellement pour toucher les consommateurs. Une façon de cibler plus précisément les demandes de leurs clients serait de coopérer davantage avec eux. De passifs, les consommateurs deviendraient alors acteurs (consommacteurs) et pourraient agir de manière constructive en aidant les entreprises à développer des produits mieux adaptés à leurs besoins.Or celles-ci communiquent toujours sur un mode pyramidal. Pour que le consommateur devienne leur partenaire stratégique, il est indispensable d’échapper au cadre brick & mortar et d’utiliser les blogs, vlogs, wikis, journaux citoyens, IM, chats… comme outils de marketing et de relation avec la clientèle. C’est grâce à cette indispensable transition culturelle, sociologique, industrielle et économique que les entreprises de demain sauront conserver leur image et leur marque tout en offrant des produits diversifiés et personnalisés à des publics de plus en plus vastes. De leur adaptation à cette société de l’abondance dépendront leur développement, leur capacité à imaginer des produits innovants pour nos sociétés et, par conséquent, à engranger des bénéfices. Les entreprises doivent passer par quatre grandes étapes avant de pouvoir apporter une valeur ajoutée à leurs clients. Juste après la production de masse, la première est la production de qualité (avec ses différentes procédures de contrôle qualité). La seconde allie qualité et personnalisation. La troisième franchit un nouveau pas avec la relation à l’environnement. L’entreprise, qui s’est emparée de la notion de développement durable, se dit soucieuse de l’environnement et déclare vouloir le protéger en recyclant les produits et en utilisant  le moins possible de ressources naturelles en amont pour éviter de générer des déchets trop nombreux. La quatrième étape, plus récente, concerne surtout les entreprises organisées autour des «symboles immatériels» (comme l’art, les voyages, le sport, le partage d’expérience), par opposition aux «symboles matériels», et dont l’activité est liée à la communication, à l’information et aux média. Afin d’encourager les gens à consommer davantage de symboles immatériels, elles s’orientent vers des produits ou activités transmetteurs de sens. Pour y parvenir, elles tentent de capter le consommateur en le faisant adhérer à leur charte de valeurs (liées par exemple à l’environnement, à l’humanitaire, au commerce équitable…). Cette tendance est également perceptible dans l’automobile et les voyages de loisir. Les grands constructeurs modernes tels que Toyota ou Nissan fabriquent désormais des automobiles hybrides, environment friendly. Ces «écovoitures », qui consomment peu d’essence et libèrent donc peu de CO2, incitent instinctivement le conducteur à modifier son attitude au volant, notamment en conduisant de manière plus civique et solidaire… Plusieurs marques commencent d’ailleurs à miser sur ces valeurs émergentes pour vendre leurs voitures en sensibilisant leurs acheteurs à un comportement plus citoyen ou plus écologique.Autre exemple : de plus en plus de villages de vacances proposent une activité culturelle à leurs clients en plus des traditionnelles activités sportives ou séances de bronzage à la plage. Des philosophes, des scientifiques, des artistes sont ainsi invités à animer des séminaires sur place.

L’émergence d’une économie du peuple, par le peuple et pour le peuple.

Un nouveau type de production industrielle, mais cette fois de particulier à particulier (peer to peer), se trouve amplifié par l’effet de levier du Web. On l’a vu, eBay ou Amazon utilisent l’intelligence collective des millions d’utilisateurs de leurs services pour noter, évaluer, crédibiliser des livres, des produits et même des personnes, ce qui crée de la valeur ajoutée. Un comportement social partagé acquiert ainsi une vraie valeur économique dans un marché. eBay permet à un nombre illimité d’acheteurs et de vendeurs d’assurer un prix d’équilibre entre l’offre et la demande autour d’un immense choix, grâce un système d’enchères en temps réel. Celui-ci repose sur la confiance : ce sont les internautes acheteurs ou vendeurs qui entrent en relation, sans se connaître, pour envoyer le produit ou pour le payer. eBay prélève environ 7% du montant des transactions. Chacun évalue et note la fiabilité de l’autre grâce à un système de notation inventé par la société. Ce système unique en son genre jette les bases d’une nouvelle forme d’économie, un nouvel écosystème économique fondé sur le «capital confiance» de millions d’agents économiques en interaction permanente, très différent du marché traditionnel, basé sur les marques, la publicité, les politiques de prix, les soldes et les réseaux de distribution.

Émergence des cybertribus et corégulation citoyenne

Notre monde est multipolaire : les instances traditionnelles des secteurs politique, médiatique juridique et religieux côtoient un foisonnement de groupes (d’utilisateurs, de consommateurs, de citoyens…) qui se forment dans tous les secteurs. Au sein de ce nouveau paysage apparaissentdes « tribus » (culturelles, « tendance », éducatives,associatives, sportives, politiques…) et des gourous médiatiques (vedettes de cinéma, champions, leaders d’opinion, auteurs…) qui fédèrent une population partageant la même culture, les mêmes valeurs ou tout simplement les mêmes goûts. Certaines tribus se découvrent des affinités avecd’autres, donnant lieu à des fédérations de tribusqui s’interconnectent et échangent. Internet est le miroir de la société physique dans une société virtuelle. Jusqu’à l’apparition de ces média des masses, les moyens d’expression collective classiques n’offraient pas à ces tribus la possibilité d’avoir un poids déterminant face aux grands pouvoirs politiques traditionnels. Pendant longtemps, la plus grande partie des citoyens ne possédait pas le niveau d’éducation suffisant pour bien cerner les intentions des leaders d’opinion. Aujourd’hui, la population est plus éduquée, mieux informée, et se sent plus concernée. Les citoyens échangent de plus en plus, partagent et comparent avis et expériences. Mais si le système actuel de régulation de la société n’est pas satisfaisant, le système émergent ne l’est pas non plus. Si les communications « tous - tous » se sont si rapidement développées sur le réseau, c’est bien le signe que les utilisateurs refusent le diktat de quelques-uns. La montée des média des masses va progressivement se traduire par une « corégulation citoyenne ». Mais il est peut-être encore trop tôt. Les utilisateurs ne sont pas encore prêts. Les citoyens n’ont pas encore réellement pris conscience du fait que, en s’unissant avec cohérence et intelligence, ils pourraient créer un contre-pouvoir ou une « intelligence collective ». Dans une démocratie, il relève de la responsabilité des gouvernements élus d’édicter les grandes règles, les garde-fous respectant le principe de«subsidiarité 1 ». «J’assume» signifie : je prends sur moi ce qui m’est imposé. « Je subsume » (verbe proposé par Nietzsche) veut dire : je sais que ceux qui décident en haut de la pyramide sociétale feront mieux que moi. Je ne délègue pas «à l’envers », mais je fais confiance. C’est une vision nouvelle de la société. «Assumer» a sans doute semblé plus clair que «subsumer». Pourtant, c’est le sens originel du « principe de subsidiarité » qui apparaît pour la première fois dans le projet de traité de Maastricht. Dans une corégulation citoyenne, l’État ou les gouvernements édictent des règles consensuelles après consultation du peuple. Dans le même temps, les citoyens informés et connectés entre eux «subsument» : ils s’en remettent au sommet de la pyramide car ils pensent que le haut réussira mieux qu’une collectivité d’individus peu organisée. Dans la société numérique et la société de l’abondance, il leur appartient également de coréguler les fonctions sociétales qui permettent de faire émerger desvaleurs et une éthique partagées.

Média des masses, contre-pouvoir et intelligence collective.

La montée des média des masses nous laisse entrevoir une opportunité d’équilibrer la société plus efficacement en trouvant un compromis entre la régulation par le haut et la corégulation par le bas. Nous sommes à l’aube de ce contre-pouvoir, fondé sur l’intelligence collective et les média des masses. Pour le moment, l’expression de cette intelligence collective se limite à descendre dans la rue avec sa caméra vidéo ou de télévision, ou encore àorganiser des manifestations spontanées, des smartmobs. Il devient nécessaire de réinventer une cyberdémocratie qui ne serve pas seulement à faciliter l’administration, notamment en permettant aux contribuables de déclarer leurs revenus en ligne, mais à engager véritablement le dialogue entre le politique et le citoyen. L’accélération de l’évolution de la civilisation du numérique rend indispensable cette adaptation. Les mutations portent désormais sur des idées, des visions du monde, des outils techniques, et plus seulement sur le biologique. Alors que des millions d’années avaient été nécessaires pour faire évoluer son espèce, l’homme a pu imaginer avec son cerveau la roue, le crayon, l’aile d’avion, l’eau chaude et le fil à couper le beurre ! Cet « inventeur » vient de séparer deux mondes : le monde réel et le monde imaginaire. Il peut inventer des objets qui n’existent pas dans la nature, créer des prototypes et les tester. Une accélération prodigieuse va résulter de la rencontre entre la biosphère et la technosphère. Avec Internet, l’homme invente un nouvel environnement, reflet de la société : le monde virtuel, qu’on appelle aussi le cyberespace.Ainsi, trois mondes vont coexister : la biosphère, la technosphère et la cybersphère. La cybersphère provoque un bouleversement dans le temps et dans l’espace : entreprendre des actions et interactions collaboratives, même si les intervenants sont séparés par des milliers de kilomètres, ne prend désormais que quelques secondes. C’est cette prodigieuse accélération que nous vivons aujourd’hui,conduisant à une société en temps réel, comme celle décrite dans Le Macroscope.

Une intelligence collective, pour quoi faire ?

Les hommes construisent ainsi, «de l’intérieur », un macro-organisme planétaire, une sorte de cerveau dont nous devenons les «neurones» : le Cybionte Des millions d’usagers, de pronétaires, contribuent à enrichir ce métaordinateur parallèle que l’on appelle aujourd’hui Internet ou World Wide Web. Comme le fait remarquer Kevin Kelly , le plus étonnant dans cette machine gigantesque dont nous sommes les éléments vivants est qu’elle fonctionne sans interruption depuis maintenant plus de quinze ans. Dans quelques dizaines d’années, le système comportera sans doute son propre système immunitaire, comme celui d’un organisme vivant, capablede lutter contre les virus dans l’intérêt de tous. C’est d’ailleurs l’objectif du futur Internet appelé GENI (Global Environment for Networking Investigations), lancé à l’initiative de la NSF (National Science Foundation) et fondé sur une architecture informationnelle à même d’améliorer l’e-mail, de lutter contre les virus, les spams ou les hackers. Le surprenant phénomène global auquel nous contribuons peut être décrit de la manière suivante. Aujourd’hui, nos ordinateurs fonctionnent à partir d’operating systems, en abrégé OS (Microsoft Windows, MacOS ou Linux), sans lesquels écrire, calculer, envoyer des e-mails ou encore stocker ses photos ne serait pas possible. Bientôt, Internet deviendra l’OS universel dont se servira la collectivité. La grande question sera alors : qui seront les programmeurs de cet OS ouvert et collaboratif? La réponse est simple : ces programmeurs sont déjà enaction. Ce sont les internautes eux-mêmes, c’est-àdire les pronétaires. Le Web du futur sera « notre Web». Chacun contribuera à charger (uploader) de l’information vers ce système global, à partir de son ordinateur, de son PDA, de sa caméra numérique ou de son smartphone. Chaque fois qu’une personne met sur le Web une photo, un article, crée un tag ou envoie des liens cliquables dans un e-mail, elle contribue à créer une nouvelle « idée » dans le cerveau planétaire du Cybionte. Quand une personne clique sur une page, modifie un blog, rédige un commentaire, elle reprogramme le métaordinateur de l’intérieur. De la même manière, chaque fois qu’une personne crée un lien, enregistre un favori ou ajoute une adresse e-mail dans ses contacts, elle contribue à renforcer des liens physiques, presque « biologiques » ou « cyberneurologiques ». Et cela selon un processus analogue au processus d’apprentissage qui, dans le cerveau, renforce certaines connexions entre des neurones, contribuant à la mémorisation des informations et des émotions. Dans la nouvelle optique de cet OS global, les producteurs d’informations ne s’attendront plus à ce que chaque élément transmis dans la mémoire du réseau soit téléchargé par un usager contre une rémunération, quelle qu’elle soit. Au contraire, les informations spontanées s’accumulent en constituant une gigantesque base de données réutilisable par chacun, à tout instant, grâce aux puissants moteurs de recherche contextuels et intuitifs qui se mettent en place. Le terme d’« intuition » est d’ailleurs approprié. L’intuition fonctionne dans notre cerveau à partir de bribes d’informations inconscientes, mais qui se relient subitement à la suite d’une émotion, d’une lecture, d’un événement. Ainsi, les pronétaires, assistés par des agents intelligents, seront capables de regrouper, de faire converger, de réutiliser des informations mises en mémoire par d’autres sur tous les sujets imaginables. Chaque outil qu’ils utilisent sera une fenêtre ouverte sur cet immense ordinateur. Il n’y aura plus de «convergences technologiques» au sens où l’entendaient jadis les grandes entreprises du multimédia. Les différentes technologies ne convergent pas par elles-mêmes. Le métaordinateur parallèle qu’est en train de devenir Internet sera le « continent » vers lequel toutes ces fenêtres convergeront. En quelque sorte, comme le fait remarquer Kevin Kelly, chacun sera capable de voir « de l’autre côté du miroir ». Déjà avec Google Maps on peut localiser sa maison depuis l’espace ; bientôt, sans doute avec Google Trafic, il sera possible de visualiser en temps réel les flux et la dynamique des interactions sur le Web mondial. Google cherche ainsi à nous renvoyer notre propre activité en temps réel, nous permettant de prendre conscience, collectivement, de nos actions communes, et peut-être de notre intelligence collective, en attendant… une «conscience collective»? Il est intéressant d’étudier un autre paramètre souvent négligé, le nombre de connexions possibles à partir d’un noeud du réseau Internet ou « neurone ». Étant entendu que chaque individu possède en mémoire sur son PC ou son mobile des favoris et un carnet d’adresses (des « synapses » potentielles), on peut tracer une courbe illustrant l’augmentation du nombre d’utilisateurs ainsi que celle du nombre moyen de favoris et d’adresses que détient chacun d’entre eux. Ce qui donne une image indirecte du degré de connectivité potentielle du réseau mondial. À partir d’un certain seuil, la courbe Internet fait apparaître un point d’inflexion (le même que pour l’origine de la vie, de la conscience ou de l’économie). Cette courbe est présentée en détail dans L’Homme symbiotique, reprise à partir du modèle des seuils critiques de Stuart Kaufmann 1. Elle montre que le développement d’Internet s’est réalisé assez lentement au cours des trente dernières années, puis qu’il a atteint une phase explosive (la période actuelle), pour sans doute se stabiliser selon une courbe en «S» (sigmoïde) au cours des trente prochaines années. L’Internet du futur reposera sur des communications entre des centaines de milliards d’objets interconnectés (capteurs, biosensors, nanodétecteurs…) plutôt que sur les seules communications entre les êtres humains. Le développement d’Internet rappelle certains des principes fondamentaux mis en oeuvre par l’évolution biologique. La compréhension des phénomènes d’émergence est à rechercher du côté des processus de construction de systèmes complexes plutôt que dans l’analyse de leurs éléments constituants. La grande quête de la physique est la compréhension des propriétés de la matière par l’étude et l’analyse du rôle des particules élémentaires. Mais cette analyse intime, censée expliquer de manière causale l’évolution ultérieure de la matière vers des états de complexité croissante, ne rend pas le monde plus intelligible, ni d’ailleurs plus proche. L’explication signifiante s’éloigne avec l’analyse. La leçon que nous apporte la biologie est la suivante : la complexité émerge de la dynamique des interactions entre agents, qu’il s’agisse de molécules, de fourmis ou d’acheteurs dans un marché. Des propriétés nouvelles émergent de cette collectivité organisée.L’individu n’a pas de plan d’ensemble de la structure qu’il construit « de l’intérieur ». Lespropriétés de ces systèmes complexes ne sont en aucun cas programmées dans les éléments qui les constituent. La vie, la conscience réfléchie, l’économie, Internet, naissent de manière chaotique, de la dynamique des interactions. C’est pourquoi le phénomène Internet nous fait entrer dans un nouveau paradigme : il nous oblige à tenter de comprendre, par la synthèse plutôt que par l’analyse, comment les éléments se combinent dans des ensembles plus complexes. Cette démarche nous rapproche de la nature, de notre rôle au sein de l’écosystème informationnel Internet. Nous en sommes désormais une partie intégrante. Ce qui fonde et légitime toute action consciente au coeur de la dynamique du réseau.

Tous coresponsables de notre avenir

Plus la personnalisation (des services, des biens, des goûts…) sera poussée, plus le risque d’atteinte à la vie privée sera grand. Plus il y aura de téléphones ou de PDA connectés, plus la localisation géographique et la traçabilité des personnes se développeront. Plus nous effectuerons de transactions financières, plus les attaques de crackers, les vols de numéros de cartes de crédit, la désorganisation des communications par les virus et le spam seront nombreux et fréquents. Plus les pronétaires seront dotés de cyberarmes de désinformation massive, plus celles-ci risqueront d’être utilisées par quelques-uns à des fins répréhensibles. Nous serons vraisemblablement victimes d’épidémies numériques galopantes et de crashs informatiques, naturels ou provoqués. Mais cet essai se veut constructif. Plutôt que d’annoncer des catastrophes cybernétiques ou numériques, ce dont les média traditionnels ne se privent pas, il a cherché à proposer analyses et approches pratiques face à un développement totalement nouveau et en brutale accélération. Il dessine et indique des pistes permettant d’aider les citoyens à construire leur avenir plutôt que de subir les événements et les évolutions. Dans cette optique, il privilégie effectivement ce qui serait susceptible de réussir, et pas seulement ce qui pourrait échouer. Nous sommes touscoresponsables de notre avenir. À nous d’arbitrer en permanence. Pour réussir cette corégulation citoyenne, nous devons évoluer vers des valeurs positives pour l’humanité et nous entendre sur le sens du mot « positif », qui ne signifie pas seulement plus de croissance économique. Sur ce point, on ne peut que rejoindre la vision de Patrick Viveret, qui nous incite à « grandir en humanité plutôt que grandir en économie 1 ». Bien au-delà de ce qu’on appelle aujourd’hui l’« opinion publique », que mesurent régulièrement les sondages, et bien au-delà de ce que Jung, après Freud, appelait la « conscience collective », on voit émerger une «coconscience collective réfléchie ». À un moment donné, il est fort possible que le système global de communication que nous avons « exporté » de nous-mêmes, extériorisé de notre corps, prenne conscience de soi et se pose cette grande question : qui décide, pour faire quoi, pour aller où ? Cette coconscience collective peut rester en lutte en son sein et donc devenir schizophrène. Elle peut aussi allier ses ressources autour de grands desseins pour l’humanité. Dans ce cas, reste à savoir lesquels…

LA RÉVOLTE DU PRONÉTARIAT

Joël de Rosnay

Avec la collaboration de Carlo Revelli

DU MÊME AUTEUR

Une vie en plus. La longévité, pour quoi faire ?, avec

François de Closets, Jean-Louis Servan-Schreiber et

Dominique Simonnet, Seuil, 2005.

La Plus Belle Histoire du monde. Les secrets de nos

origines, avec Hubert Reeves, Yves Coppens et

Dominique Simonnet, Seuil, 1996.

L’Homme symbiotique. Regards sur le troisième millénaire,

Seuil, 1995.

Les Rendez-vous du futur, Fayard/Éditions n° 1, 1991.

L’Avenir en direct, Fayard, 1989.

L’Aventure du vivant, Seuil, 1988.

Le Cerveau planétaire, Olivier Orban, 1986.

Branchez-vous, avec Stella de Rosnay, Olivier Orban,

1984 (Grand Prix de la littérature micro-informatique

grand public).

Les Chemins de la vie, Seuil, 1983.

La Malbouffe. Comment se nourrir pour mieux vivre,

avec Stella de Rosnay, Olivier Orban, 1979.

Le Macroscope.Vers une vision globale, Seuil, 1975 (Prix

de l’Académie des sciences morales et politiques).

Les Origines de la vie. De l’atome à la cellule, Seuil, 1966.

Les commentaires sont fermés.

 
Toute l'info avec 20minutes.fr, l'actualité en temps réel Toute l'info avec 20minutes.fr : l'actualité en temps réel | tout le sport : analyses, résultats et matchs en direct
high-tech | arts & stars : toute l'actu people | l'actu en images | La une des lecteurs : votre blog fait l'actu