OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 L’article du futur sera une API http://owni.fr/2011/07/06/larticle-du-futur-sera-une-api/ http://owni.fr/2011/07/06/larticle-du-futur-sera-une-api/#comments Wed, 06 Jul 2011 17:05:27 +0000 Olivier Ertzscheid http://owni.fr/?p=72185 Face.

Face à l’explosion continue des savoirs disponibles. Face à la perméabilité chaque jour plus grande des champs scientifiques, à leur reconfiguration permanente et à la place toujours plus grande de l’interdisciplinarité et de la transdisciplinarité. Face à la crise de l’édition et aux rentes de situation de quelques monopolistiques éditeurs. Face à la babélisation des expertises et à la crise de l’autorité académique qu’elle met en exergue. 

Face au mouvement de l’open access et à l’ensemble de ses dérivés (science commons, archives ouvertes et/ou institutionnelles, sciences citoyennes, etc.). Face à la mise en place de nouvelles énonciations scientifiques, de nouveaux agencements collectifs d’énonciation et face à leur structuration et à leur légitimité grandissante. Face à l’explosion des usages scientifiques de sites, de données, d’API, de corpus non-originellement scientifiques. Face aux interfaces évolutives proposées pour l’accès et pour le traitement des données disponibles pour les chercheurs ou offrant un intérêt scientifique. Face à une transition encore en train de se faire entre la “science” et la “science 2.0″.

Face à tout cela, le monde académique (éditeurs, universitaires, ingénieurs, professionnels de la documentation) cherche et tatônne pour savoir, ce qui dans une transition déjà actée, relèvera demain de la réelle nouveauté disruptive et/ou du simple effet de mode passager.

Pile.

C’est dans cette logique de grand tremblement institutionnel qu’Elsevier (grand éditeur monopolistique qu’engraisse éhontément l’argent public des universités) a lancé, à grands renforts de tambours et de trompettes marketing, son projet pour étudier ce que sera “l’article du futur“. Pile poil. Où l’on apprend que l’article du futur sera :

  • plus interactif
  • plus hypertextuel
  • plus “segmenté” (avec d’un côté les données brutes, de l’autre côté le protocole expérimental, au milieu les résultats)
  • plus interfacé (en lieu et place d’un simple pdf à double colonne aux immuables têtes de chapitres – résumé, description du problème, revue de littérature existante, description du protocole, analyse des données recueillies et méthodologie de recueil, conclusions, prolongements et/ou réplications possibles, bibliographie)
  • variable en fonction des spécificités de chaque discipline
  • plus facilement “partageable”
  • plus facilement visualisable (différentes “vues” du même contenu seront disponibles)

Wow. On a même droit à une jolie vidéo avec des bonnes grosses flèches oranges “powerpoint-like”:

Un ou deux ans de recherche pour inventer un affichage à 3 colonnes avec le sommaire à gauche et les navigations et vues contextuelles à droite (soit ce qui est déjà disponible depuis 6 ou 7 ans dans les templates ou gabarits gratuits des grandes plateformes de blogs, au hasard et de manière non-exhaustive “wordpress” ou “blogger”). On peut même accéder à un exemple “live” d’article du futur. Re-wow. Mais ce n’est pas tout. Sans même parler de “l’article du futur”, figurez-vous, ô révolution numérique, qu’Elsevier vient de rendre possible d’ajouter des cartes Google sur des articles en ligne.

Et là je dis au mieux “WTF” et au pire “no future”. Bon, blague et mauvaise foi à part, il est évident que ce truc là sera toujours préférable à un vieux pdf à double colonnage sans liens hypertextes, mais qualifier ce prototype “article du futur” me semble un peu too much pour être honnête. Pendant qu’Elsevier réfléchit à l’article du futur, le futur de la science s’écrit au quotidien.

Ici, les formidables carnets (= blogs) de la plateforme HYpotheses.org se voient attribuer un numéro ISSN. Authentique (r)évolution :

Cette attribution, exceptionnelle pour une plateforme de carnets de recherche, constitue avant tout la reconnaissance des carnets de recherche comme de véritables publications scientifiques.

Pendant ce temps, , un enseignant-chercheur dépose (pour la première fois dans le monde francophone ?) la concaténation de 5 articles de blogs sur une plateforme d’archive ouverte, non pas pour se la jouer rebelle mais pour s’inscrire dans une très ancienne tradition de préprint initiée par la communauté des physiciens (sur le serveur Arxiv notamment). Et la bonne nouvelle – et la vraie nouveauté – est que cela n’émeut plus personne (à moins naturellement que personne ne l’ait encore remarqué ou n’ait jugé opportun de venir me manifester son outragé mécontentement devant ce dévoiement de l’honorabilité des publications académiques estampillées par la très sainte AERES).

Pendant ce temps-là, les contributions à l’encyclopédie Wikipédia sont prises en compte dans un CV académique.

Pendant ce temps-là, il y a déjà 3 ans, Jean-Max Noyer et 3 collègues universitaires réfléchissaient, non pas à “l’article du futur”, mais à la nécessaire et inexorable déconstruction numérique des modes de publication scientifique et des autorités liées. Voici quelques extraits de leur prose (je souligne) :

Les transformations de la sphère éditoriale scientifique sont à l’œuvre avec vigueur, depuis le début des années 90 et elles sont loin d’être stabilisées. Le passage d’un mode d’édition  « blanchi sous le papier »  avec ses dispositifs de fabrication, (leur sociologie) de financement, de légitimation (critériologie de sélection scientifique), de distribution, vers un mode éditorial numérique, hypertextuel complexe s’est accéléré depuis une dizaine d’années.
La première phase de ce passage est à présent bien avancée et la saturation des formes héritées du papier, toujours présentes au cœur des premières réalisations numériques est en cours. Une seconde phase est en cours de déploiement. Elle consiste à mettre l’édition numérique « au milieu » des conditions de production / circulation des savoirs scientifiques… Il s’agit en effet de penser et de concevoir des dispositifs qui soient l’expression la plus adéquate de ce couplage structurel.
Les mémoires numériques ont mis très rapidement en évidence la complexité des processus d’écritures scientifiques, les chaînes plus ou moins longues de transformations des textes, les morphogenèses documentaires. Bref, face à une exhibition de plus en plus forte  des dimensions processuelles et collectives des textualités scientifiques à travers la mise en mémoire d’un nombre croissant de traces produites par les chercheurs, l’édition scientifique doit repenser la manière dont elle a fondé son efficacité et sa légitimité sur une sélection relativement simple d’objets éditoriaux finis comme hypostases des savoirs scientifiques, comme effacement relatif (du processus de production scientifique lui-même), comme expression de l’imaginaire égalitaire de la redistribution des savoirs.
L’édition scientifique doit aujourd’hui permettre d’habiter les communautés d’œuvres, les agencements qui produisent et font circuler les documents, comme « incomplétude en procès de production ». Il s’agit de prendre en compte les dimensions complexes des procès d’écritures scientifiques et de favoriser le travail de recherche (…) au cœur des pratiques. Il s’agit encore de permettre l’établissement de chemins pertinents, de connexions, entre les hétéro-genèses documentaires, des fragments et des formes courtes les plus labiles aux textes stabilisés et sanctifiés en passant par les « working papers », les corpus de données quelconques… qui sont convoqués au cours du travail de recherche, de lectures-écritures.

De tout cela, de tous ces enjeux, naturellement pas un mot dans la réflexion sur l’article du futur d’Elsevier.

Alors ce sera quoi, l’article du futur ? Et ben je vais vous le dire :-) L’article du futur sera une API.

  • “A” non pas comme “Autorité” mais bien comme “agencements collectifs d’énonciation”. Ce que la recherche n’a par ailleurs – heureusement – jamais cessé d’être.
  • “P” comme “percolation” rendue possible entre différents champs scientifiques (voilà pour le fond), et entre les silos documentaires en reconfiguration permanente (voilà pour la forme)
  • “I”. Triple “I”. “I” comme “inscription”, c’est à dire comme capacité à faire trace. “I” comme “interface”, interface multimodale. Nécessairement multimodale. ”I” comme “indicateurs” : les nouveaux indicateurs de la science, viralité, téléchargements, réels, temps de lecture accordé, réplication, citations. Sur ce dernier point, Elsevier travaille beaucoup pour élaborer les tableaux de bord d’indicateurs scientifiques nécessaires au pilotage de la science, d’un strict point de vue comptable et/ou “valorisation à court terme”. Sur la question des indicateurs, Elesevier travaille (vraiment) beaucoup, et communique (vraiment) très peu. Ce sera peut-être l’objet d’un billet dédié si j’en trouve le temps, mais le monde académique serait très bien inspiré de se mettre rapidement au travail pour définir et fabriquer ses propres tableaux de bord d’indicateurs pour ne pas se trouver, demain, prisonnier de solutions clés en main technologiquement pointues mais méthodologiquement empreintes d’une vision strictement rentabiliste de la chose scientifique.

Et puis littéralement, l’article du futur sera une API. Une interface de programmation (voir le remarquable article d’InternetActu), rendant différentes applications possibles. Un vrai boulot d’éditeur que de réfléchir à ce que seront ces API. Que l’on regarde ce qui se passe du côté du livre numérique. L’édition savante va devoir faire rapidement la preuve de son érudition informatique et logicielle. A moins qu’elle ne préfère réinventer la roue ou l’article d’hier en l’appelant celui de demain.


Article initialement publié sur “Affordance.info” sous le titre “L’article du futur sera une API”.

Crédits photo FlickR CC : by-nc Eric Constantineau / by-sa Reilly Butler

]]>
http://owni.fr/2011/07/06/larticle-du-futur-sera-une-api/feed/ 0
[SPIIL] Journée de la presse en ligne http://owni.fr/2010/10/22/spiil-journee-de-la-presse-en-ligne/ http://owni.fr/2010/10/22/spiil-journee-de-la-presse-en-ligne/#comments Fri, 22 Oct 2010 07:26:39 +0000 [Enikao] http://owni.fr/?p=32854 A l’occasion de la première journée de la presse en ligne organisée par le SPIIL, Syndicat de la presse indépendante d’information en ligne qui fête sa première année à la Maison des Métallos, la Soucoupe est venue assister aux débats qui animent la profession. Précision utile : Owni a rejoint le SPIIL depuis 48 heures.

Cet article a été mis à jour tout au long de la journée

Suivez la journée sur Twitter avec le hashtag #SPIIL.

//

9:25 - Maurice Botbol introduit la journée et rappelle la raison d’être du SPIIL, créé peu après les Etats Généraux de la Presse : indépendance vis-à-vis des groupes de presse, information en ligne. Le SPIIL avait 10 membres au départ, il compte une soixantaine de membres aujourd’hui, avec un processus de choix selon des critères intangibles : modèle économique dès la création, au moins un journaliste ayant une carte de presse dans l’entreprise. Sites au contenu gratuit, payant, sites d’information locale, le SPIIL présente une vraie diversité aujourd’hui.

9:30 - Pierre Haski anime la première table ronde “Les enjeux professionnels de la presse en ligne : quels bouleversements pour demain ?”

Frédéric Filloux, Emmanuel Parody, Cyril Zimmermann, Francis Pisani.

Qu’y a-t-il d’excitant actuellement sur le net ?

9:45 – débats autour de Ruppert Murdoch, du modèle payant fermé qui freine la circulation virale.

Frédéric Filloux entrevoit des conteneurs Internet fermés, des environnements clos et des plateformes propriétaires (applications), au risque que l’Internet gratuit s’appauvrisse.

Francis Pisani pense qu’on n’est pas obligé d’envisager toutes les tendances comme inéluctables, l’innovation vient de la capacité générative des confrontations de techniques non contrôlées.

Cyril Zimmermann est fasciné par Murdoch, qui prend le risques de tester. S’autodistribuer est un véritable enjeux : conquérir ses abonnés, engendrer de l’adhésion à l’acte. Le problème vient en partie de l’offre, et de la frontière choisie entre ce qui doit être payant ou gratuit.

Emmanuel Parody rappelle qu’on a pris comme acquis que les contenus du web étaient ouverts parce que techniquement, le web est du lien. Il y a une tentation à mettre des liens en périphérie des articles, ce qui est une régression. Mais le débat gratuit/payant est trop binaire : la course à l’audience originelle (pages vues = pub, mais les rendements sont décroissants) s’est arrêtée car il y a moins de capitaux d’investissement, on est donc arrivé au revenu par utilisateur. Le payant ne veut pas dire que ce qui était gratuit de vient payant : il faut trouver des activités supplémentaires, complémentaires (mobilité, nouveaux contenus…).

10:00 – Pierre Haski rappelle qu’aujourd’hui on parle de l’affaiblissement et de la mort des marques dans l’industrie, et que ce discours arrive à peine pour les médias. La moitié du lectorat de Rue89 arrive par la recommandation. Le lectorat est diversifié : les fidèles, ceux qui arrivent par les réseaux sociaux, et ceux qui viennent de manière plus aléatoire par les moteurs de recherche. Leur implication n’est pas la même.

Internet a été présenté comme un chaos, mais la profusion de contenus justifie que les marques existent, comme point de repère.

Les médias sociaux permettent de rappeler à soi d’autres lecteurs qui ne viennent pas souvent.

Cyril Zimmermann pense qu’il y a eu un énorme marché de dupes entre les éditeurs de contenu, Google et les médias sociaux, parce qu’il y a eu une captation de la rente publicitaire. L’indexation gratuite contre du trafic a focalisé le sujet sur le nombre de vues, qui rapporte trop peu. C’est une spoliation avec l’assentiment fasciné des créateurs de contenus, Google le fait, Apple le tente et Facebook le fait déjà. Le déséquilibre économique vient d’un très beau marketing et du fait que l’enjeu de ce marché de dupes n’était pas directement monétaire (ce qui aurait réparti les revenus), mais simplement des clics.

Frédéric Filloux rappelle que tous les clics ne sont pas égaux. L’approche publicitaire est grossière, et indifférenciée. On est encore dans la religion du clic, que l’on obtient avec des manipulations minables comme des jeux. Mais quelle est la proportion de visiteurs à valeur, qui viennent avec une logique de marque ?

Emmanuel Parody : Facebook ne ramène pas des trafics, c’est vraiment infime, 1,25% à peine ! Facebook n’est pas la relève de Google, il est surévalué dans sa capacité de renvoi d’audience. C’est un lieu où s’organisent des échanges sociaux, c’est donc autre chose. La moitié des utilisateurs vient jouer en ligne sur Facebook, le webmail est un usage croissant, mais ce n’est pas un lieu de consultation d’information. Facebook crée du lien qualitatif, pas du clic en masse.

Francis Pisani suggère que l’on remettre en question l’article : la matrice d’un article est une matrice espace-temps. La distance virtuelle et le temps réel bouleversent ce when et ce where que l’on apprend dans les écoles de journalistes. Twitter, c’est du fragment qui vient de partout en temps réel. Les récits modulaires sont peut-être la vraie base de réflexion pour l’avenir de l’information : l’article viendra nous chercher sur les écrans que nous utilisons, le journalisme est un process et l’article n’est donc plus monolithique.

Frédéric Zimmermann rebondit sur la question du prix de l’article abordé par Francis Pisani : la vente à l’article va poser une question très gênante, celle de la rentabilité des journalistes car on verra clairement les articles qui marchent. Il faut donc s’en prémunir pour ne pas faire des journalistes salariés des pigistes chargés de tirer du trafic sans faire leur vrai métier (l’information) dans des conditions satisfaisantes.

10:30 - Les débats s’ouvrent dans le public sur Google : il n’y a pas de contrat, il est à la fois tacite et léonin. Il est possible de se désindexer mais puisqu’il n’y a pas d’accord. Le plateau s’anime et commence à débattre avec la salle.

Frédéric Filloux charge Huffington Post et ses 6 000 blogueurs non payés, qui n’est pas un modèle du tout. La spoliation est ailleurs : le Huff’Po draine à lui les commentaires et le trafic, en pillant ou en faisant piller les contenus créés ailleurs.

Emmanuel Parody : le modèle de la course à l’audience, c’est la revente ! Ariana Huffington l’a compris, c’est pour cela qu’elle ne parle pas de valeur de l’article. Entrer en bourse, faire la culbute, c’est quand même un classique, il faut assumer cette question de la bulle et regarder les chiffre en face.

Francis Pisani interroge Pierre Haski sur l’arrivée à la rentabilité de Rue89 : la crise a fait chuter les revenus publicitaires, la diversification est donc venue de la formation (aujourd’hui 30% des revenus) et la production de sites pour d’autres structures. L’accès reste gratuit car la moitié du trafic vient de la recommandation, la circulation virale reste donc importante car nous sommes un jeune média, et le modèle freemium n’est pas encore mature. Le mensuel papier (qui procède d’un reverse publishing) que nous avons lancé n’est pas encore pris en compte même s’il est rentable dès le premier numéro.

//

11:00 – Atelier “Audience et trafic, les dernières évolutions”

Hélène Froment (Mediapart), Emmanuel Parody (BCS Interactive) et Franck Si-Hassen (Médiamétrie e-Stat)

Affinage de la mesure d’audience.

La mesure des vidéos a longtemps été limitée au compteur, qui ne prend en compte que le temps de chargement. Désormais Médiamétrie peut savoir quel est le temps de visionnage réel. Les marqueurs e-Stat de Médiamétrie prennent en compte depuis peu les applications mobiles iPhone, iPad, iPod Touch, Androïd, et bientôt Blackberry.

Le wi-fi compte pour environ 20 à 30% des applications : le téléphone a beau être mobile, il est parfois utilisé de manière fixe.

Alenty a développé une application pour calculer le temps de visionnage des publicités (emplacement), cette technologie est désormais intégrée pour l’analyse de visualisation des contenus d’une page, en particulier dans les homepage qui évoluent sur les médias en ligne.

Pour Mediapart, au-delà des 40 000 abonnés désormais atteints, la mesure de l’audience est un enjeu particulier : l’économie de moyens ne permet pas une mesure fine avec des outils coûteux. L’engagement de dépense se concentre sur les éléments classiques : nombre pages vues, durée des visites, mais aussi zones. La base abonnés permet de vérifier les Adwords qui fonctionnent, et donc calculer le coût d’acquisition des nouveaux abonnés : cela a débuté en juin avec l’affaire Bettencourt. Ces données guident les investissements dans les campagnes d’achats de mots clés.

La mesure de fidélisation se fait sur l’écart entre les consultations connectées et non connectées. L’aspect hybride du modèle est donc évalué avec l’entonnoir pour vérifier le taux de transformation, et les éléments qui sont rédhibitoires. Les applications iPad et iPhone de Mediapart arriveront cet automne.

Questions du public : quelle utilisation éditoriale des chiffres pour orienter les choix de contenus ? Quels sont les apporteurs de trafic (Google, Facebook, Dailymotion…) ? Pour Mediapart, il y a un mix à trouver pour rester un site d’information générale, il faut équilibrer les sujets pour ne pas devenir “le média Bettencourt”. Cet été, la notoriété de la marque Mediapart a tiré les abonnements, le travail de CRM par les relances e-mail, les Adwords et les offres proposées sur Facebook et Dailymotion viennent après.

//

14:00 – Atelier “Formation : tout ce que les journalistes web doivent apprendre et que leurs collègues ignorent”

Table animée par Philippe Couve.

Philippe Couve, Soizic Bouju, Alice Antheaume, Marc Mentré, Eric Mettout

Alice Antheaume : l’enseignement au web en école de journalismes inclut plusieurs sujets larges. La vérification des sources, le fact checking accéléré sur les chiffres, mais aussi détecter un sujet rapidement pour prendre de vitesse l’AFP. En deuxième année, on passe au choix des outils de publication, on réfléchit aux formulations pour les demandes aux  développeurs, à comment optimiser son référencement Google. Les digital natives, c’est une forme de fantasme, il faut avoir des comptes sur les médias sociaux bien sûr, c’est même un prérequis, mais on apprend surtout à faire de l’info.

Eric Mettout : il faut aussi apprendre les relations avec la communauté et les lecteurs, le marketing, l’utilisation des outils disponibles comme les Google Maps, les nouvelles formes d’écriture, parce qu’aujourd’hui le journalisme web est un journalisme Shiva. La formation évolue désormais très vite.

Marc Mentré : il faut d’abord savoir ce qu’est le journalisme web : réseaux sociaux, mobilité ? Ce qui est sûr c’est qu’il ne peut y avoir une compétence unique centrée sur le web. Participer à la communauté est indispensable, et ça nécessite une spécialisation. On ne peut pas être un spécialiste des généralités. Les sites ne peuvent pas exploiter dans leurs médias respectifs certaines compétences comme les nouvelles formes de narration.

Soizic Bouju : la réactivité pour la profondeur, c’est là la ligne de partage. Il faut être formé à tout mais on ne peut pas tout faire. L’expertise a un sens car elle fait la différence.

Philippe Couve : la formation au dialogue entre journalistes et développeurs est indispensable, bien sûr les fonctions ne sont pas les mêmes mais il faut trouver les zones de contact.

14:30 – Questions du public  : le transmédia est devenu plus facile grâce aux outils matériel, mais cela ne change rien au fait que la pratique elle-même. Comment faire ?

Pour Marc Mentré, on va revenir aux équipes de journalistes, c’est d’ailleurs ce qu’on voit sur les projets de webdocumentaire. La diffusion des savoirs et des savoir-faire en interne est un vrai enjeu, il faut des passeurs de technique et des personnes capables de mener des projets en interne. L’éclatement de la bulle web au début des années 2000 a aussi freiné les demandes de formation web pendant des années.

Pour Soizic Bouju, il y a une phase de transition générationnelle, c’est sûr, mais ce n’est pas la ligne de partage et les résistances existent là où on ne les imagine pas : le management intermédiaire s’interroge encore beaucoup. Le projet doit être éditorial.

Marc Mentré : le web est horizontal, les rédactions sont verticales, ce qui crée des confrontations hiérarchiques. Il faut donc commencer par former la rédaction en chef, et la laisser réfléchir à l’organisation.

Les pigistes peuvent aussi bénéficier des formations web.

//

15:00 – Atelier “Eclatement des supports de diffusion : réseaux sociaux, mobiles… papier !”

Benoît Raphaël (Le Post), Laurent Mauriac (Rue89), Walter Bouvais (Terra Eco)

Walter Bouvais : il faut se concentrer sur le contenu, les angles, le ton, la question des supports et des canaux doit venir après. Cela suppose qu’on ait des conférences de rédaction musclées, et uniques, print et web réunis. Cela signifie publier moins vitre et moins souvent mais viser une forme de qualité.

Laurent Mauriac : pour l’instant, le mobile est une déclinaison du web, mais des fonctionnalités complémentaires arrivent. Nous avons des visiteurs qui ne nous lisent que par ce qu’ils voient des médias sociaux. Sur le papier, on a une commodité du format, et on doit quand même attirer des gens pour les faire payer un contenu qu’ils pourraient trouver gratuitement en ligne. Il faut quand même adapter les contenus aux plateformes, car les plateformes sont liées directement à des modes de consommation des médias.

Benoît Raphaël : Internet a été présenté comme un nouveau réseau de distribution, mais les contenus changent de nature à partir du moment où les canaux deviennent interconnectés : mobile, Internet, réseaux comme Facebook, demain la télévision connectée. L’information est devenue liquide, donc en salle de rédaction il faut apprendre à être plus agile, mais le mode de production doit le devenir aussi. Les nouveaux outils permettent de gagner beaucoup de temps, c’est pourquoi il faut se poser la question de la production, pas seulement de sa distribution. Le journaliste peut s’appuyer sur les internautes et se décharger d’une partie de ses fonctions : angles, témoignages, récupération, veille.

Le Post a longtemps recyclé et retravaillé une information générale déjà disponible, même si l’angle et l’enrichissement peuvent différer d’un média à l’autre. Puis il a fallu agrandir les équipes pour coproduire avec les journalistes, et enfin aller vers l’enquête plus spécifique.

Laurent Mauriac : l’éclatement des commentaires sur les différents supports devient difficile à gérer, car il y a le site, Facebook, Twitter… La conversation est difficile à animer. Sur Rue89, on a un outil pour mettre en valeur les commentaires pertinents, et même on en édite certains dans le mensuel papier quand ils apportent quelque chose.

Benoît Raphaël : le commentaire anonyme génère énormément de parasites, le contenu est souvent mauvais et très agressif. Le travail de la communauté dans les commentaires, sur l’actualité courante, est souvent assez pauvre. Supprimer l’anonymat par un système de commentaires réservé aux abonnés allège un peu ces mauvaises participations. Être présent près du lecteur, sur Facebook ou Twitter, c’est simplement aller le chercher là où il est, c’est du bon sens. Quand l’information est produite nativement en digitale, on peut l’adapter.

Éclatement des supports et monétisation  : pour Laurent Mauriac, il ne faut pas regarder la rentabilité par mode de diffusion. Le mensuel a fait connaître la marque à de nouveaux publics et assuré un autre visibilité auprès de nouveaux publics et des régies publicitaires.

Question du public : quelle relation avec les internautes, quel rapport au droit d’auteur ?

Laurent Mauriac : ils sont des capteurs mais il ne sont pas journalistes et n’ont pas vocation à être rémunérés parce qu’ils ne produisent pas stricto sensu. Rue89 n’adhère pas à cette idée de journaliste citoyen. Les CGU prévoient que les commentaires peuvent être repris dans un article en ligne ou même dans le mensuel.

16:00 – “Les enjeux démocratiques de la presse en ligne : prêts pour la campagne de 2012 ?”

Débat animé par Ewy Plenel.

Benoît Thieulin, Dominique Cardon, Edwy Plenel, Antonio A. Casilli, Xavier Moisant

Dominique Cardon : on a élargi le nombre de personnes qui prennent la parole à davantage de profils, qui désormais peuvent être anonymes, et on a ajouté la conversation, ce qui est proprement démocratique même si on change de qualité en libérant les subjectivités, en ouvrant la parole en présupposant l’égalité de parole. L’espace public a changé, mais toute la hiérarchie d’information demeure : la hiérarchie est celle des agissants. Le contrôle ex post a par contre fait son entrée. L’espace public a donc changé, et on voit nettement des réseaux catégoriels se constituer autour d’intérêts. Mais au final, Internet a surtout joué un rôle important dans la liberté d’expression par la massification des usages, Internet a procédé à un décentrement de la société, les individus s’auto-organisent de manière incontrôlable. Internet ressemble peut-être un peu plus à la société qu’avant où le témoin de la rue devait être poli, présentable et représentatif à la fois.

Antonio Casilli : il faut préparer un internaute civilisé à un Internet civilisé. Sur Internet, on est dans une situation de contrôle, de surveillance de soi de manière paternaliste et infantilisante, on retrouve en quelque sorte le “surveiller et punir” de Michel Foucault. Le trolling, le vandalisme sur Wikipedia, montrent que l’enjeu est important, c’est un effet de stimulation qui nécessite une réaction, même si elle doit être mesurée, dans ses efforts et dans le temps. Sur Internet, les polarisation sont plus fortes : contre-culture américaine, mini comu nippons, gauche radicale en Europe, trolls républicains professionnels… Ce vandalisme et cette viralité ont un rôle dans la place publique.

Xavier Moisant : l’incompréhension et la non-compréhension des candidats politiques ne sont pas des histoires anciennes, surtout à l’échelle nationale. On en est parfois à faxer des e-mails ! Il y a plusieurs réactions possibles. Il y a eu le “débrouille-toi” en 2002, qui donnait une grande liberté. On est passé depuis 2007 à des sites de campagne qui servaient de purs relais. Avec les médias sociaux plus implantés, ça va changer : Nicolas Sarkozy a déjà plus de 300 000 fans sur Facebook, ce qui est une base de mobilisation militante.

Benoît Thieulin : Internet est perçu comme un nouvel outil de communication, pas comme la possibilité de changer de paradigme. Move On, Howard Dean ont été des avancées qui ont montré des capacités de mobilisation de la société civile et de libération de la parole qui auraient dû faire bouger les mentalités. Internet a été l’outil des mouvements et candidats les moins favorisés des médias. En France, aucun candidat n’est encore un praticien du web (c’est un effet générationnel) alors que ce n’est pas le cas en Grande Bretagne et aux Etats-Unis. Notre classe politique, dans sa formation intellectuelle et dans sa carrière, qui passe souvent par de grandes administrations centrales, n’est pas formée au web. La société civile s’est réarmée par le web autour de logiques affinitaires, puis il y a eu un traitement médiatique, la politique est arrivée plus tard. Mais développer une stratégie complexe ne peut venir que de la pratique même, sinon on ne fait que décliner sur le web des stratégies préexistantes.

Dominique Cardon : Obama est un universitaire et il s’est inscrit dans les conversations, en sollicitant la participation, mais c’est aussi une bête de télévision. On est à la fois dans le participatif et dans la mise en avant d’une personnalité, sa victoire est le fuit d’une ambivalence.

Les réflexions sur les trolls sont nombreuses : modération, comment l’isoler, pourquoi troller est avant tout un verbe (on trolle) plutôt qu’un individu (tout le monde troll d ‘une manière ou d’une autre). La longue traine du web ouvre ces espaces dans la politique, mais elle permet aussi la communication directe pour des candidats moins connus. La discussion d’un élu qui a un capital politique élevé est plus rare et cette rareté risque d’avoir un effet déceptif.

D’autres compte-rendus :

Archives :

Illustration CC FlickR par Bill on Capitol Hill

]]>
http://owni.fr/2010/10/22/spiil-journee-de-la-presse-en-ligne/feed/ 8