lundi, novembre 27, 2006

Savoir, Réseaux, Partages : Les outils collectifs au service de la construction des savoirs.

Vendredi 24 novembre avait lieu dans les locaux de l’ENS Lsh la deuxième édition de "S@voirs réseaux partage 2006" (programme), un colloque biannuel organisé par l’association DocForum se proposant de réfléchir sur l’accès aux savoirs à travers deux sessions en parallèle :
  • Le rôle des territoires dans l'accès au savoir
  • La construction collective des savoirs
.

Je me suis intéressé à la deuxième thématique portant sur la construction collective des savoirs. Ce dernier fil rouge se déclinait en trois sessions portant

  1. Le jeudi sur la Formation avec des conférences sur l’éducation tout au long de la vie d’une part et le e-learning d’autre part. Je n’ai pu y assister.
  2. Les outils collectifs au service de la construction du savoir le vendredi matin
  3. Une prospective « Peut on produire des savoirs collectifs ? », le vendredi après-midi.


D’un point de vue général en premier lieu, j’ai trouvé les interventions de qualité. Les intervenants maîtrisaient leur sujet. Le colloque à ce sujet s’est montré riche et intéressant. Là où j’aurais des remarques en revanche serait plutôt au niveau de l’organisation : il y avait selon moi trop d’intervenants : chacun ne disposait que d’un petit quart d’heure en moyenne pour sa présentation et débordait régulièrement. Nous avons eu peine à tenir les horaires impartis, les intervenants étaient coupés et la participation de la salle quelque peu réduite. D’un point de vue technique, nous avons eu la malchance également de subir une panne du serveur de l’ENS rendant la téléconférence prévue avec Christian Vanderdope et Jean-Michel Salaün depuis Montréal inopérante. Finalement, elle s’est déroulée tant bien que mal par téléphone !

Je vais parler aujourd’hui de la conférence de la matinée et je ferai un billet sur la seconde demain si j’ai le temps et le courage ou dans la semaine au pire.

Dans le programme, la conférence était appelée « Les outils collectifs au service de la construction du savoir ». La problématique posée était :
Vendredi 24 matin - Session B2
Les outils collectifs au service de la construction du savoir
9h30-12h45

Agrégateur de flux, signets sociaux, weblog, wiki, ... les applications et les initiatives permettant la création collective des savoirs se multiplient. Et ce d'une manière si exubérante que « web 2.0 » s'est imposé comme le mot valise pour embrasser ces initiatives. Pour autant les possibilités offertes ne se limitent pas à Internet. Des besoins existent dans l'entreprise, dans les collectivités locales, dans la recherche et dans les média. Les outils 2.0 peuvent utilement contribuer à améliorer et renouveler les manières de faire dans chacune de ces sphères. C'est l'objet de cette session que de montrer comment, grâce à des cas concrets et divers scenarii d'usage.
Table ronde avec,
Pierre Chappaz, pdg de Wikio et co-directeur général de Netvibes
Jacques Ducloy, CNRS
Hubert Guillaud, Fing
Julien Jacob, Obiwi et media2.0
François Nonnenmacher, auteur de "Blogueur d'entreprise"
Christophe Routhiaux,CTO de BlueKiwi
Coordination et intervention Olivier Amprimo, Lanéo.org docteur en sciences de gestion


La séance fut donc ouverte par une présentation des outils sociaux d’Olivier Amprimo. Ce dernier nous expliqua qu’il définissait les outils sociaux comme des technologies établies qui évoluent (le mail date de 1965, les wikis de la fin des années 80, les blogs de 94, la folksonomie de 2002) et comme des usages, pas nouveaux certes, mais qui se massifient. Internet se voyait le principal vecteur de cette innovation sociale.

Pour lui, le Web 2.0 présente quatre facettes :

  1. une information fluidifiée (grâce aux mash-up, aux fils RSS, ATOM, à l’OPML)
  2. Une classification personnelle des contenus (grâce au web sémantique, aux folksonomies, aux étiquettes…)
  3. Des applications sociales dont un glissement des appli du bureau (desktop) à des serveurs dédiés (ex : les marques-pages, la bureautique, le stockage, l’agrégation, l’IM), dont une ouverture à tous des activités de chacun (blogs, wiki) et dont l’émergence de communautés spécialisées (many to many) (ex : sur YouTube, FlickR, eBay, MySpace, Digg, Wikio, LinkedIn…)
  4. Des régulations nouvelles sous la forme de :
    - mettre l'individu au centre (logique "bottom-up", ou co-conception "bêta")
    - une activité de contenus collectivement évaluée (cf "édition de référence libre et collaborative", INRP, mars 06)
    - la réputation vient du travail et non plus du statut
    - changement du mode de communication ("buzz", "referal") : cf lancement de Netvibes et de Skype
    - hierarchie et intermédiaires remis en cause (cf crise des médias) (cf blog liban et catasptrophe Nouvelle Orléans où les blogueurs ont donné plus d'info, plus rapidement que les médias traditionnels)
    - une propriété intellectuelle en mutation (cf débat sur le droit d'auteur et les creatives commons)
    - une rémunération souvent problématique : gratuité des services, rémunération indirecte par les référencements, contribution des usagers non rétribuées, valorisation a posteriori des start-up...


Pour avoir une idée de cette diversité du web 2.0, il nous a proposé d’aller consulter ses liens sous < a href="http://www.kaboodle.com">Kaboodle, un site de gestion de signets illustré.

Ensuite, Jacques Ducloy nous a fait une présentation portant sur « l’édition collaborative et scientifique sur internet », à travers l’expérience du projet ARTIST, Appropriation par la Recherche des Technologies de l' IST regroupant des chercheurs et praticiens en Sciences de l’Information, de l’IST et des TICE avec le soutien logisitque de l’INIST. L’idée initiale était que la recherche avait perdu la main dans le domaine de l’édition scientifique (au niveau des coûts des acquisitions, évaluation, animation, communication scientifique).

Le projet est à l’origine de la revue AMETIST (Appropriation, Mutualisation, Expérimentation des Technologies de l’IST) disponible sous formats papier et numérique complémentaires au niveau de l’évaluation ou des contenu des articles (la version web pouvant enrichir le papier). Le projet est à l’origine de plusieurs expérimentations de rédactions collectives (en faisant cohabiter des mécanismes collaboratifs (forum) et des comportements éditoriaux), de traductions (avec l’ouverture d’un forum terminologique), de rédaction collective d’article. Les outils utilisés sont le forum (spip+listes+wiki) et la revue (lodel, word pour le papier, Amaya pour l’éditeur html).

Le bilan retenu au niveau de l’aspect coopératif peut être une modération compliquée du forim et une croissance globale désordonnée, au niveau technique une difficulté de faire cohabiter des langages différents (wikis et CMS), une particularité née de l’écriture numérique, au niveau logistique un problème de soutien et de formation technique des personnels.
Mais surtout Jacques Ducloy tient à poser la problème de l’appropriation autrement et à poser la question : « Comment faire de la recherche à l’ère du numérique ? », soulignant l’intérêt des recherches au niveau de l’e-science et de l’e-research (cf les programmes NSDL (Etats-Unis), JISC et UKOLN (Royaume-Uni), Scielo (Brésil). La réticence de nos chercheurs pourrait alors être résolue par le détour via la production de documents pédagogiques comme aux Etats-Unis.

Hubert Guillaud de la Fing nous présenta par la suite une application du web 2.0 aux territoires intitulée « Territoires 2.0 : quels changements pour les territoires et les institutions ? ». Sa thèse était que le monde institutionnel était peu réceptif aux évolutions du web 2.0 telles que définies dans ce contexte par D. Kaplan et B. Marzloff dans leur Manifeste des villes 2.0. Le territoire 2.0 en tant que construction sociale et appropriation d’un espace délimité devait amener une plus grande participation des citoyens aux projets des collectivités, le suffixe 2.0 n’évoquant pas forcément une dimension technique mais rappelant que l’innovation allait venir des réseaux. L’idée en prospective était de laisser les teritoires à d’autres acteurs que les seuls décideurs publics… Un territoire 2.0 servirait ainsi à
  • Mieux Informer (orienter les contenus vers les citoyens et pas l’administration seule, publier l’activité d’une institution, informer en temps réel sur l’avancement d’un chantier, encourager la diffusion de l’information publique) ;
  • Expérimenter via par exemple une coproduction de contenu (cf citizenbay, Marseille forum), la tenue de débats publics (cf débat-atrébatie)
  • Animer en ouvrant ses données vers l’extérieurs (cf Mon Velo’V), participant en tant qu’institution au buzz, s’inscrivant à la société en ligne…

Cette présentation (incomplète par manque de temps) a suscité pas mal de questions de la part de l’assemblée qui ne voyait pas comment l’institution pouvait répondre en tant que telle à toutes les interpellations des citoyens, ni si cette réponse était réellement judicieuse.

Julien Jacob, ancien DG de c|net.fr (qui édite entre autre ZDNet), à la tête de sa propre société et auteur du blog Media2 sur les business models des médias interatifs nous a fait une des meilleures présentations de la journée.

Cette dernière nous a d’abord rappelé que l’élément central des médias 2.0 était le fait que les utilisateurs en généraient le contenu (ou UGC en anglais, User Generated Content). En citant une étude de Morgan Stanley appelée « US advertising outlook 2006-2010 ». Ces sites UGC étaient d’ores et déjà leader en trafic sur internet.

Actuellement sur internet le marché publicitaire est le principal modèle économique (limite en surchauffe), en augmentation de 30%-40% par an depuis 1998 et encore probablement de 20% par an jusqu’en 2010. Après tout, 30% du temps des personnes se passe sur internet. La conséquence de cette surimportance sera, selon Julien Jacob, que sur le long terme, la monétisation va progresser plus vite que les usages qui eux-mêmes vont progresser plus vite que le nombre d’internaute et sur le court terme on risque de voir une forte pression sur les prix des espaces publicitaires (déjà les UGC proposent de la publicité).

Les utilisateurs ont de leur côté pris le pouvoir en terme d’usages. Ces usages deviennent multiformes et mobiles (web mobile –la vente de portables regroupe 42% des ventes de PC ; téléphone –dont le taux de pénétration à Paris est de 131% ; baladeurs audio et vidéos). Les utilisateurs attendent de trouver de l’information, faire confiance, participer, être reconnu surtout (or dans les approches participatives on pense plus technologies que besoin des gens).

Dans les média, Julien Jacob définit trois types d’informations : professionnelles (qui maîtrisent le modèle économique de la publicité, proposent une bonne qualité éditoriale mais perdent le lien avec leur audience), commentaires (produite par les internautes, permet de gérer des communautés mais ne couvre que des besoins simples), des marchands prestataires (qui sont très pertinentes sur la vente de leurs produits mais manquent d’objectivité).
La pyramide de Maslow permet de comprendre les besoins de la personne qui s’informe :
  • besoins de santé et de sécurité au travail =>Je consomme des informations brutes =>Kelkoo
    besoins économiques et familiaux => Je consomme des informations basiques => Google News
  • besoins sociaux => Je veux me reconnaître dans une marque => Info Matin
  • besoins de reconnaissance => Je veux êter reconnu => Le Monde (courrier lecteur)
  • besoins de réalisation => Je participe => Géo
  • besoins de connaissances => J’apprends => Britanica
  • besoins de créativité => Je partage
    Ces trois dernières étapes ne sont pas couvertes par les médias.


Julien termine en précisant qu’il faut revoir la chaîne de valeur, proposer du participatif éditorialisé, du web 2.0 à savoir un média ouvert, participatif et multiplateforme.

Les questions à ce moment ont portées sur une remarque de l’orateur selon lequel il serait une bonne idée de créer une « norme » qualité pour l’information afin d’en garantir la qualité et le rigueur.

Enfin, Christophe Routhieau, de la société BlueKiwi et François Nonnemacher, aka Padawan et auteur du livre « Blogueur d’entreprise » ont abordé, l’un après l’autre, l’application des concepts 2.0 dans le monde de l’entreprise.

Selon Christophe Routhieau, grâce au web 2.0, véritable laboratoire en terme d’usages, l’internet a enfin trouvé ses utilisateurs. Il était temps alors d’adopter ces innovations au monde de l’entreprise et c’est ce que propose BlueKiwi, une suite logicielle qui se propose de développer la participation en interne en utilisant une solution complète d’entreprise 2.0 destinée à mieux faire circuler l’information au sein des membres de l’entreprise par le biais d’un portail, d’agregateurs RSS, de blogs d’entreprises, de départements, de servcies, d’applications AJAX, de logiciels de messagerie instantanée…. La solution a notamment été déployée chez Dassault System où elle a permis de nouvelles collaborations, un plus grand partage des connaissances et connu un grand succès.

François Nonnemacher quant à lui a listé trois problèmes qui pouvaient limiter les usages de ces concepts rien moins que nouveaux (« le 2.0 marque que les décideurs ont découvert qu’internet existe et que les gens l’utilisent ») :

  1. Une double fracture numérique
    Il existe d’une part une fracture entre l’état de l’art sur le web où se construisent des réseaux sociaux, des blogs, des wikis et les intranets des entreprises où tout est archaïque. D’autre part il existe une fracture générationnelle distinguant « les analogues » qui font encore imprimer leur mails, « les émigrants » qui sont des analogues s’accomodant de nouvelles technologies et les « natifs » qui envoient des textos sur leurs PSP car ils trouvent ça plus pratique que des mails. Aujourd’hui, nous sommes dans l’ere de la publication personnelle.
  2. Une organisation formelle, « hierarchique » des entreprises qui s’oppose à une organisation informelle « des gens en réseau sur le terrain »
  3. Le Papiboom. En quelques années, nombre de personnels vont partir à la retraite et avec eux une masse énorme de savoir faire va quitter l’entreprise. Les outils 2.0 vont alors pouvoir capturer ces connaissances.


Ces outils vont permettre de s’opposer à une culture « savoir = pouvoir » au profit du partage de l’information et devraient permettre de s’opposer également à une pratique de bastion, de monopole dans une entreprise (c’est le service comm’ qui fait la comm’ et personne d’autre) tout en flattant l’ego des personnels.

Attention, les blogs, les wikis, c’est beau mais ce n’est pas la panacée. Ils ne sont que des compléments dans une entreprise et ne peuvent être efficace que s’il existe une bonne organisation interne derrière. Avant de mettre en place plusieurs blogs dans l’entreprise, il faut aussi se concentrer sur les contenus, ce qu’on veut publier et pourquoi.

Reste enfin le problème de l’acculturation : si le natif arrice dans une entreprise et qu’il voit qu’il ne peut changer les pratiques, alors il va s’adapter et tous les apports qu’il pourra apporter seront perdus. Il a besoin à ce titre d’un appui fort de sa direction comme la participation des personnels doit être reconnue par la hiérarchie. Il faut accompagner, animer le projet.

2 Commentaire-s :

Blogger Bruit et chuchotements a dit...

Merci !

Apparement les wikis n'ont pas vraiment été inventés dans les années 80, même si certains navigateurs-éditeurs devaient déjà exister à cette périodiques.

D'habitude la date retenue est plutôt 1995 avec la création de ce wiki
http://c2.com/ppr/

Référence :
http://www.journaldunet.com/0308/030820cunningham.shtml

11/28/2006 05:05:00 AM    
Anonymous Anonyme a dit...

Merci pour ce compte rendu!

C'est vrai que la question du territoire 2.0 est cruciale et peu abordée, sauf par l'excellent travaail de la fing.

11/28/2006 09:15:00 AM    

Enregistrer un commentaire

<< Home