Veille Archives - Master Intelligence Economique et Stratégies Compétitives Le Master Intelligence Economique qui combine analyse économique, outils de veille, e-réputation, gestion de crise et big data via une formation sur deux ans. Fri, 03 Nov 2017 11:03:25 +0000 fr-FR hourly 1 La Veille … Du concept à la réalité https://master-iesc-angers.com/la-veille-du-concept-a-la-realite/ Thu, 02 Nov 2017 15:43:37 +0000 http://master-iesc-angers.com/?p=2386 I. La Veille … c’est quoi ? Devenue la préoccupation des acteurs de stratégie, des experts de l’innovation, des spécialistes de l’information et des différents consultants, la veille a, petit à petit, su pénétrer le monde des entreprises. Pour autant la… Continuer la lecture

L’article La Veille … Du concept à la réalité est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
I. La Veille … c’est quoi ?

Devenue la préoccupation des acteurs de stratégie, des experts de l’innovation, des spécialistes de l’information et des différents consultants, la veille a, petit à petit, su pénétrer le monde des entreprises. Pour autant la définition du terme demeure vague.

On a toujours entendu parler de veille stratégique, technologique, informationnelle, concurrentielle … mais qu’entend-on précisément par la ?

La veille est un processus dynamique d’utilisation et de traitement de l’information qui permet à un utilisateur, à un groupe et ou à une entreprise de satisfaire des besoins informationnels récurrents, ponctuels ou permanents, nécessaires à leur fonction et à leur organisation dans le but d’optimiser leur compétitivité.

« La veille est le pont qui permet à une entité d’accéder rapidement aux informations externes et d’anticiper les événements susceptibles d’influer sur son activité, son organisation et son environnement. »

Sans un bon regard critique, et sans être capable de s’étonner de son environnement, on ne pourra jamais exercer de la veille stratégique.

Premièrement, le veilleur stratégique doit comprendre les particularités stratégiques du patrimoine immatériel de la société (exemples : brevets, licences, connaissances).

Deuxièmement, il est responsable de la protection du patrimoine immatériel de l’entreprise en prenant connaissance de renseignements, incertitudes, des informations ou agressions déloyales.

Troisièmement, il est en charge d’alimenter la prise de décision stratégique proactive de sa firme dans le respect des lois et des règles éthiques.

II. La veille … et l’intelligence économique

Depuis quelques années des mutations économiques, géopolitiques et technologiques ont affecté le monde des entreprises. L’information devient pour chacune d’elle une matière première nécessaire au développement de la performance économique. Elle leur permettra ainsi d’agir (disposer d’arguments de décision), anticiper (appréhender les éventuels changements) et de réagir (être alerté au moment opportun).

La notion d’intelligence économique implique le dépassement des actions partielles désignées par les vocables de documentation, de veille (scientifique, technologique, concurrentielle, commerciale,…), de protection du patrimoine concurrentiel, d’influence (stratégie d’influence des états-nations, rôle des cabinets de consultants étrangers, opérations d’information et de désinformation…).

III. La veille … quel processus ?

Il semble important en premier lieu de citer et d’expliquer brièvement les différentes étapes du processus de la veille.  La plupart des spécialistes des sciences de l’information et de l’intelligence économique reconnaissent trois étapes indispensables dans le processus à savoir : la collecte, le traitement et la diffusion. Certains l’élargissent en y incluant par exemple l’expression des besoins.

  1. L’identification et l’expression des besoins en information
  2. L’acquisition des informations à partir des sources exploitables, formelles ou informelles
  3. L’exploitation qui comprend le traitement de ces informations, l’analyse, l’interprétation et la synthèse des informations.
  4. La diffusion du renseignement vers les décideurs.

De façon plus exhaustive M. Benslimane* propose 7 étapes intellectuelles pour ce processus :

  1. Définition des besoins
  2. Définition des axes / secteurs de surveillance
  3. Identification des sources (sourcing)
  4. Collecte de l’information
  5. Analyse et traitement de l’information
  6. Diffusion de l’information
  7. Action

La littérature décrivant les étapes d’un processus de veille est riche. Malgré quelques variations, notamment dans le nombre d’étapes et leur ordre d’exécution, il apparaît un consensus faisant état de cinq principales phases :

IV. La veille … en pratique

Sur un plan opérationnel, et dans la plupart du temps, l’organisme voulant faire de la veille signe un contrat de prestation avec un prestataire propriétaire d’un logiciel de Veille. Un contrat qui permettra à l’organisme de bénéficier d’une prestation de service annuelle lui donnant accès à la totalité des fonctionnalités du logiciel en hébergement local dans le but de garantir une sécurité maximale. Ainsi la direction Système d’Information gère les accès et les rôles des membres des cellules de veille au sein des différentes entités de l’organisme, si ce dernier en comprend plusieurs.

Les scénarios de recherche sont quant à eux gérés au niveau des cellules de manière indépendante pour des raisons de confidentialité interne, ce qui provoque parfois de la redondance au niveau de la collecte et du traitement, ainsi qu’au niveau des sources et abonnements à ces dernières.

Suite aux différentes difficultés et au manque de coordination entre les différentes cellules de veille, l’organisme prend l’initiative de créer une direction qui aura la responsabilité de coordonner entre les cellules de veille au sein du groupe.

Ayant pour objectif principal de dresser une cartographie globale des besoins fonctionnels en termes de veille, d’abonnements et des outils, tout en garantissant la confidentialité, il est donc possible de créer une synergie entre la direction de coordination et les différentes cellules au profit de la sécurité, la réactivité, le coté légal ainsi que l’optimisation des ressources.

V. La veille … et la capitalisation ?

Une fois l’information collectée et traitée, elle doit circuler et être diffusée aux utilisateurs potentiels. C’est la phase terminale du cycle de l’information qui mène directement vers l’utilisation des fruits de l’activité de veille.

La diffusion a pour ultime but de faire en sorte que les utilisateurs potentiels des informations et connaissances de Veille stratégique disposent de la bonne information, au bon moment, afin de pouvoir la transformer en action (prise de décision).

La diffusion consiste en une mise à disposition des données informationnelles aux personnes concernées. « L’information de veille doit circuler convenablement dans l’entreprise afin de participer à la création de valeur ajoutée ». Pour cela elle doit arriver au bon moment à la bonne personne et sous une forme exploitable et succincte. En d’autres termes les résultats de la veille doivent être synthétisés fidèlement et irriguer l’entreprise à travers des solutions qui sont diverses et variées.

Les informations de la veille stratégique étant fragmentaires, imprécises et éparses par la force des choses, leur importance n’apparaît que si elles sont accumulées et progressivement enrichies.

L’enrichissement s’apparente à une opération de capitalisation. Ce n’est qu’à cette condition de stockage et d’enrichissement que leur utilisation permettra la création de sens et la transformation des signaux faibles en forces motrices pour l’action.

Sous le terme « capitalisation », il est souvent question du stockage des informations issues de la veille. Le stockage consiste à conserver les informations brutes récoltées dans la phase de recherche et de collecte et les connaissances issues du traitement de l’information. Le stock ainsi construit permet aux utilisateurs d’accéder à l’information dont ils ont besoin à un instant donné.

Humbert Lesca aborde la question du stockage sous trois angles d’approche :

Par Ghita Tagnaouti Moumnani, promotion 2017-2018 du M2 IESCI

Webographie

1     La veille – livre blanc – janvier 2013 [En ligne]. Adresse URL : http://www.esi.ac.ma/Dossiers/20140303080311.pdf   [Consulté le 28/09/2017].

2    Fiche métier : Veilleur stratégique [En ligne]. Adresse URL :

http://www.metiers.internet.gouv.fr/metier/veilleur-strategique  [Consulté le 28/09/2017].

3    Intelligence économique : enjeux, définitions et méthodes [En ligne]. Adresse URL : http://www.veille.ma/IMG/pdf/white-paper-IE.pdf . [Consulté le 01/10/2017].

4    Rapport de la commission Marte du XIème Plan : Intelligence économique et stratégie des entreprises. [En ligne]. Adresse URL : http://www.ladocumentationfrancaise.fr/var/storage/rapports-publics/074000410.pdf [Consulté le 01/10/2017]

5     Le cycle de vie de la veille: Principes, limites et alternative [En ligne]. Adresse URL : http://www.weka.fr/administration-locale/base-documentaire/msi-intelligence-economique-wk330/processus-et-methodologie-de-veille-sl6304737/le-cycle-de-la-veille-principes-limites-et-alternative-sl6304747.html  [Consulté le 04/10/2017].

6   Benslimane Mouna, Professeur à l’école des sciences de l’information [cours : processus de la veille].

7     VEILLE STRATEGIQUE. Professeur : Djibril DIAKHATE.  2010-2011 [En ligne]. Adresse URL : http://www.foad-mooc.auf.org/IMG/pdf/Veille_maj.pdf  [Consulté le 06/10/2017].

8    Mémoire : Mise en œuvre d’une activité de veille Le cas de Réseau Ferré de France. 4 nov 2010.

[En ligne]. Adresse URL : http://memsic.ccsd.cnrs.fr/mem_00575043/document  [Consulté le 08/10/2017].

9     VEILLE STRATEGIQUE. Professeur : Djibril DIAKHATE.  2010-2011 [En ligne]. Adresse URL : http://www.foad-mooc.auf.org/IMG/pdf/Veille_maj.pdf  [Consulté le 08/10/2017]

L’article La Veille … Du concept à la réalité est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Créer des flux RSS sur Google Search via Google Custom Search Engine https://master-iesc-angers.com/creer-des-flux-rss-sur-google-search-via-google-custom-search-engine/ Thu, 21 Jul 2016 11:56:24 +0000 http://master-iesc-angers.com/?p=1345 Cet article s’inspire d’un tutoriel très précis quoiqu’un peu technique réalisé par Amit Agarwal. Le principe consiste à utiliser les services Google Developers Console et Google Custom Search pour disposer d’un flux RSS qui proposera des résultats très proches d’une… Continuer la lecture

L’article Créer des flux RSS sur Google Search via Google Custom Search Engine est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Cet article s’inspire d’un tutoriel très précis quoiqu’un peu technique réalisé par Amit Agarwal. Le principe consiste à utiliser les services Google Developers Console et Google Custom Search pour disposer d’un flux RSS qui proposera des résultats très proches d’une requête google, avec plus d’exhaustivité qu’un google custom search engine

Il faut donc d’abord créer un Google Custom Search Engine (CSE) pour pouvoir ensuite créer un flux RSS à partir de celui-ci. Le Google Custom Search Engine est un outil proposé par Google qui permet d’effectuer des requêtes sur des sources et/ou types de fichiers spécifiques et pas sur l’ensemble de Google. La plupart des sites internet utilise un Google CSE comme moteur de recherche pour leurs visiteurs (en indiquant à Google de ne chercher que sur leur site donc).

Créer un Google Search Engine qui s’appuie sur les recherches Google

Le Google Search Engine a pour objet de permettre d’utiliser le moteur Google pour cibler des recherches sur certains sites. Il est notamment souvent utilisé comme moteur de recherche interne de sites worpdress par exemple.

En revanche, par défaut, les résultats seront donc limités. Il est néanmoins possible de les étendre via l’option « chercher sur l’ensemble du web » :

2016-07-21_1322

Une fois le moteur de recherche créé, on peut commencer à préparer le flux RSS de la recherche CSE.

Création du flux RSS

L’URL pour créer un flux RSS à partir d’une requête aura toujours la même structure : https://www.googleapis.com/customsearch/v1?alt=atom&cx=xxx:yyy&key=abc&q=query :

  • xxx:yyy correspond à l’identifiant d’un moteur de recherche Google Custom Search. On peut l’obtenir soit en allant dans « Modifier le moteur de recherche », « Configuration », « détails » :

2016-07-21_1325

 

Soit à partir de l’URL publique de votre moteur de recherche CSE :

2016-07-21_1326_001

 

  • abc est une clé API que l’on obtient via la Google Developer Console et qui permet de demander à Google d’accéder aux données du CSE. Attention à bien suivre les étapes : après créer un nouveau projet, il faut créer une custom search API

2016-07-21_1327

 

Et ensuite cliquer sur « Enable » : si vous oubliez cette étape, le flux ne fonctionnera pas ! A noter que chaque API ne dispose de base que de 100 requêtes possibles par jour donc il faut éviter un rafraîchissement trop régulier – mais on peut créer une API par moteur de recherche :

2016-07-21_1328

 

Il faut ensuite aller dans « credentials » (menu à gauche) pour créer un accès à la clé API :

2016-07-21_1329

 

Attention : choisir une « browser key » sans restrictions pour que le flux RSS fonctionne. On obtient ainsi la clé API à utiliser :

2016-07-21_1329_001

 

  • « » correspond à la dernière partie de la requête https://www.googleapis.com/customsearch/v1?alt=atom&cx=xxx:yyy&key=abc&q=query

On peut adapter une requête pour le flux RSS en suivant la liste des paramètres de l’API du custom search engine. Par exemple, si je veux les résultats des deux derniers jours sur les PDF contenant le terme « Total » :

https://www.googleapis.com/customsearch/v1?alt=atom&cx=xxx:yyy&key=abc&q=Total&fileType=pdf&dateRestrict=d2

Il faut donc toujours indiquer & entre deux éléments d’une requête.

Quelques exemples d’opérateurs :

fileType= pour demander les résultats d’un type de fichier précis ;

dateRestrict=”xx” pour avoir les résultats des derniers jours “dx”, de la dernière semaine “wx”, du mois “mx”, de l’année “mx” où X représente le nombre de mois, jours, semaines …

 orTerms=, exactTerms=excludeTerms= comme leur nom l’indique : OR”XX”, “XX”, NOT”XX” – pour obtenir AND : “XX”+“XX

linkSite= pour chercher les résultats sur une URL précise, relatedSite= pour inclure les liens du site dans la recherche

sort=date pour afficher les résultats du plus récent au moins récent

hl=fr pour spécifier que votre interface est en langue française – cela permet d’améliorer la qualité des résultats a priori

Attention à la casse des requêtes, sinon elles ne sont pas prises en compte !

Paramétrer le flux de recherche

Il suffit ensuite d’ajouter le flux dans un lecteur de flux RSS pour y avoir accès. Attention néanmoins : Google donne une limite de 100 requêtes par API et par jour. Mieux vaut donc éviter de rafraichir toutes les 5 minutes et trouver un bon compromis.

A noter que la date affichée pour les news du flux RSS est toujours le 18 janvier 1970. Néanmoins, avec sort=date on obtient les résultats les plus récents quand même :

2016-07-21_1350

L’article Créer des flux RSS sur Google Search via Google Custom Search Engine est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Les Enjeux de l’e-réputation sur Twitter https://master-iesc-angers.com/les-enjeux-de-le-reputation-sur-twitter/ Tue, 24 Nov 2015 12:04:49 +0000 http://master-iesc-angers.com/?p=1138 Certes, tous les coins de la planète parlent de Facebook depuis 2005-2006, mais selon moi, l‘enjeu de l’e-réputation se trouve sur Twitter. En tant qu’utilisatrice des deux plateformes, je trouve que la clarté et l’authenticité de l’information, ainsi que la… Continuer la lecture

L’article Les Enjeux de l’e-réputation sur Twitter est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Certes, tous les coins de la planète parlent de Facebook depuis 2005-2006, mais selon moi, l‘enjeu de l’e-réputation se trouve sur Twitter. En tant qu’utilisatrice des deux plateformes, je trouve que la clarté et l’authenticité de l’information, ainsi que la rapidité des flux d’informations sont plus importants sur Twitter. Un tweet est une idée concentrée en 140 caractères, ce qui signifie moins de bruit, mais plus d’impact. La différence sur Twitter, c’est que l’on n’a pas d’amis ! Ce que pensent les gens de toi, de ton organisation, ou ton association compte, et personne ne fait de cadeau. L’e-réputation touche notre identité numérique. Cette identité est la somme et la compilation de tout ce que nous avons publié en ligne sur nous, ou notre entreprise (Facebook, Twitter, Linkedin, Viadeo ….), et c’est là où commencent les ennuis, puisque nous entrons de plein pied dans une aire de non contrôle, de non droit et d’absence de droit à l’oubli.

 1 – PRESENTATION

Définition de l’e-réputation

L’e-réputation est la perception qu’ont les internautes de votre entreprise, de votre marque ou des collaborateurs. Elle est désormais sous les feux des projecteurs, dans beaucoup de supports sociaux, faisant l’objet de débats permanents. Ces opinions neutres, positives ou négatives, sont notamment exprimées à travers les blogs, les forums de discussion, les sites d’avis de consommateurs, les réseaux sociaux, etc.

Le risque de réputation est maintenant considéré comme le risque numéro 1 par les entreprises. Ainsi, la réputation apporte une plus-value à la valorisation en Bourse: plus 5% par an en moyenne pour les 10 entreprises les mieux notées en 2000.

D’une donnée brute à une image de marque

L’e-réputation émerge de la rencontre entre l’internaute, le web social et les organisations. Elle constitue une représentation que les internautes vont se constituer en fonction des flux d’informations qu’ils croiseront sur le net.

Ces informations sont produites par l’organisation elle-même mais aussi par les acteurs de son environnement économique proche: les salariés, les partenaires (sous-traitance, distribution…), les fournisseurs, les concurrents, les clients… et surtout par une écosphère « réputationnelle ».

D’après Camille ALLOING, un chercheur en’e-réputation, « la structuration de l’environnement informationnel d’une organisation sur les réseaux socio-numériques s’appuie sur les actions de prescriptions informationnels d’internautes »qualifiés selon lui, d’agents-facilitateurs, et « permettant à une organisation d’identifier des signaux de conformité et de construire des discours en congruence avec les opinions et attentes de ses publics».

En d’autres termes, les entreprises ont pris conscience de la position de pouvoir qu’occupent les utilisateurs des réseaux sociaux, surtout sur Twitter, ainsi que de l’étendue de leurs idées en partant d’un tweet ou d’un Hashtag. En conséquence, ils organisent leurs infrastructure et plateforme sociales autour de la perception que peut avoir ces récepteurs derrière leurs écrans, sur les normes sociales ; ce qui est permis ou non, ce qui est cool ou pas…

Le discours de l’entreprise n’est plus unique, il se fond avec celui des utilisateurs de mieux en mieux informés et dont la résonance en termes de crédibilité dépasse celle des institutionnels (GFII, 2010). Ces utilisateurs-experts, ces « consommateurs-acteurs » représentent à la fois un incroyable relais pour la communication d’entreprise et un risque de dénigrement dangereux. Surveiller cette communication désorganisée en vue de gérer son image virtuelle et anticiper les éventuelles crises est devenu nécessaire. La dimension « en ligne » de la tâche implique la mise en place d’outils spécialisés.

2 – LES ENJEUX DE L’E-REPUTATION

L’influence sur Twitter

Un mot, une phrase, une image, est suffisant pour que l’internaute se constitue une idée sur l’entreprise et sa marque.

Quel est l’enjeu ici ? Je suis une seule personne, sans aucun background économique, mais j’ai une certaine influence. Sur Twitter, nous ne sommes pas à degré égal d’influence. Ceux qui peuvent se réclamer d’une marque populaire et influente ont l’avantage d’acquérir le consensus de popularité que dégage cette marque, et accumulent les followers. S’exprimer sur Twitter n’est pas anodin. Si j’exprime une idée sur Twitter, en mettant un Hashtag pour le mot clé, je viens à la rencontre d’autres personnes partageant la même perception, ou presque, et nous propageons cette idée à l’échelle souhaitée. Cette échelle est encore plus importante si j’ai 15.000 abonnées, et donc l’impact est encore plus considérable pour la société.

L’e-veille : la veille sur la réputation numérique

Aujourd’hui, il existe de plus en plus de sociétés et d’agences qui se vouent à gérer la e-réputation et qui proposent des solutions à des entreprises, des personnalités surexposées, des franchises, et toute personne physique ou morale dont l’image sur internet doit être maîtrisée et contrôlable. A titre d’exemple nous trouvons Net’Wash (e-réputation et management de crise) ou encore Digimind.

De ce fait, la veille e-réputation permet de surveiller, comprendre et analyser la réputation numérique des différentes parties prenantes qui concernent l’organisation en question. Le logiciel Digimind e-réputation consiste à:

Sourcer: Identifier et qualifier les sources et messages de rumeurs et désinformations;

 Qualifier : Evaluer qualitativement et quantitativement l’influence d’une source.

 Surveiller : Mettre les sources web en surveillance continue quel que soit leur format, en nombre illimité.

 Explorer: Mettre en place une surveillance automatisée exploratoire.

 Analyser : Produire des graphes d’analyse de l’e-réputation interactifs et partageables en temps réel.

 Synthétiser : Mettre en place des tableaux de bord dynamiques en temps réel.

Les risques liés à l’e-réputation sont nombreux et vont de la manipulation de l’information à l’atteinte de l’image en passant par la manipulation de l’identité.

Le besoin de veille e-réputation est issu de la rencontre de 3 environnements :

– les internautes de plus en plus nombreux à s’exprimer, notamment Twitter.

– les médias et outils de publications web de plus en plus diversifié, mobiles, multimédias et facile à utiliser.

– les organisations et individus sont de plus en plus exposés en dehors de leurs propres canaux de communication et au-delà des Main-Stream médias

Dans son nouveau Livre blanc Réputation Management et e-réputation, Digimind explique comment gérer son e-réputation en cohérence avec sa réputation globale. “Les études montrent que plus de 80% des dommages causés par le risque de réputation proviennent d’un déséquilibre entre le buzz et la réalité”.

Conclusion

Twitter est un espace de liberté, un lieu d’élaboration de l’opinion publique. Néanmoins, cette liberté requiert une certaine canalisation pour pouvoir éclore sous forme de crédibilité. Ceci implique le déploiement d’une stratégie digitale, qui a pour vocation de mettre en place une cohérence unique au-dessus de la communication d’une entreprise pour en favoriser la juste perception. Car un décalage peut représenter un risque réel pour les entreprises.

Par Sofia Barim, étudiante promotion 2015-2016 du M2 IESC

Bibliographie

ALLOING Camille, 2014. La médiation documentaire sur les réseaux socio-numériques comme vecteur de l’e-réputation ? Communication et Organisation n°43

ALLOING Camille, Pierre Julien, 2012. Construire un cadre d’analyse avec les SIC pour comprendre les pratiques et les enjeux de la réputation en ligne (des individus et des organisations). Le présent document est un support de la communication au colloque (working paper). BLOCH Emmanuel, 2012. Communication de crise et médias sociaux : anticiper et prévenir les risques d’opinion-protéger sa e-réputation-gérer les crises

CADEL Peggy, 2010. Le marché de l’e-réputation Du positionnement fonctionnel aux enjeux technologiques, Université de Nice Sophia-Antipolis

Webographie

http://e-reputation.e-visibilite.com/?gclid=CP6l9OCp8sgCFcRAGwodx1IDdw

http://www.digimind.fr/solutions/par-besoins/e-reputation/e-reputation-definition

http://www.digimind.com/fr/resources/livres-blancs/reputation-management-et-e-reputation/

http://mobile.lemonde.fr/planete/article/2015/09/22/l-ong-a-l-origine-du-scandale-volkswagen_4767318_3244.html

http://www.portail-ie.fr/article/1094/Le-marche-francais-des-outils-de-veille-en-E-reputation

http://www.portail-ie.fr/categorie/21/Web-Technologies

http://www.scoop.it/t/green-business

http://immobilier.lefigaro.fr/article/airbnb-menace-par-la-fronde-de-sa-ville-d-origine-san-francisco_cb23fe9c-8144-11e5-8473-608ee6f4d557/

http://www.lefigaro.fr/societes/2015/11/02/20005-20151102ARTFIG00101-volkswagen-subit-les-consequences-commerciales-du-scandale.php

http://archives.lesechos.fr/archives/cercle/2012/09/19/cercle_54499.htm#mhS4sBuf5rBfFQ5v.99

L’article Les Enjeux de l’e-réputation sur Twitter est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Utilisation du logiciel Gephi pour l’analyse cartographique https://master-iesc-angers.com/utilisation-du-logiciel-gephi-pour-lanalyse-cartographique/ Tue, 02 Jun 2015 11:03:15 +0000 http://master-iesc-angers.com/?p=1015 1/ Introduction : Pourquoi cartographier ? 1/A Les outils de collecte des données sur le web et les réseaux sociaux  1/B Les outils de représentation  1/C Introduction à la représentation cartographique : notions de base et vocabulaire 1/D L’interface de Gephi 2/ Quel(s)… Continuer la lecture

L’article Utilisation du logiciel Gephi pour l’analyse cartographique est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
1/ Introduction : Pourquoi cartographier ?

  • 1/A Les outils de collecte des données sur le web et les réseaux sociaux 
  • 1/B Les outils de représentation 
  • 1/C Introduction à la représentation cartographique : notions de base et vocabulaire
  • 1/D L’interface de Gephi

2/ Quel(s) algorithme(s) pour quel(s) objectif(s) de représentation ?

  • 2/A Mettre en avant des divisions entre différentes composantes de la cartographie
  • 2/B Mettre en avant des complémentarités entre les différents éléments de la cartographie
  • 2/C Mettre en avant une logique de classification des éléments du graphique
  • 2/D Autres algorithmes 

3/ Représenter les nœuds en fonction des différents degrés de centralité

  • 3/A Degree centrality = A combien de personnes un compte peut accéder directement ?
  • 3/B Closeness centrality = En combien de temps un compte peut-il toucher l’ensemble du réseau ?
  • 3/C Betweenness centrality (Entremise ?) = Quelle est la probabilité que cette personne soit l’itinéraire le plus direct entre deux personnes dans le réseau ?
  • 3/D « Centralité Eigenvector » = A combien de personnes bien connectées ce compte est-il connecté ?
  • 3/E Modularity class = Identifier les relations entre les nœuds et mettre en avant des communautés
  • 3/F Aller plus loin dans l’analyse en combinant des filtres

4/ SIGMA : L’export analytique et esthétique

1/ Introduction : Pourquoi cartographier ?

La cartographie du web ou des réseaux sociaux s’appuie sur l’idée que les liens créés sur le web entre différents acteurs (sites web, comptes twitter…) peuvent être perçus comme des liens sociaux. D’un point de vue pratique, il s’agit de retracer dans un graphe le réseau créé par les liens hypertextes pour les sites web ou les liens entre les internautes lors d’une discussion sur les réseaux sociaux. La cartographie fait alors apparaître les différentes relations entre les comptes ou sites, le degré d’interaction, d’occurrence, le poids de chacune d’entre elles. La cartographie permet de faire émerger des territoires communautaires en ligne et d’en observer les dynamiques.

Objectifs et enjeux de la cartographie :

  • Explorer les liens sociaux virtuels,
  • Définir le rôle et l’importance de chaque acteur lors d’une discussion sur le web et les réseaux sociaux, au sein d’une ou plusieurs communautés,
  • Détecter les acteurs et comptes influents,
  • Appréhender les comportements d’une communauté en ligne,
  • Anticiper les risques en fonction de l’agenda et des thématiques pouvant mobiliser,
  • Gérer les risques et les attaques sur la réputation en ligne.

1/A Les outils de collecte des données sur le web et les réseaux sociaux 

Pour les cartographies web :

  • l’exploration, les outils les plus employés sont les crawlers. Un crawler est un logiciel qui permet de naviguer dans une série de pages web et de tracer tous leurs liens hypertexte. Les crawlers peuvent être automatiques ou, plus rarement, manuels. En outre, de nouvelles méthodologies ont été récemment développées pour explorer les données des réseaux sociaux en ligne. ➔

Extraction de données pour les réseaux sociaux :

  • le modèle NodelX pour Microsoft Excel 2007, 2010 et 2013, permet la collecte rapide des données de médias sociaux via un ensemble d’outils d’importation qui peuvent recueillir des données sur le réseau de l’e-mail, Twitter, YouTube, Flickr.

Pour Twitter, NodeXL est limité à 18 000 tweets, sur une recherche de 7 jours (maximum théorique, il est rare de dépasser quelques milliers de tweets en pratique). Il faut utiliser la syntaxe de recherche Twitter pour extraire des données via NodeXl, sachant que des variations de requête peuvent donner plus de tweets (par exemple, ajouter lang :fr si la requête est en français) NodeXL permet également d’extraire les données des abonnés / abonnements d’un compte twitter sur plusieurs niveaux (cela prend néanmoins beaucoup de temps).

  • Visibrain, outil payant de monitoring sur Twitter, nous permet d’extraire l’ensemble des comptes ayant participé à une conversation sur une thématique choisie et paramétrée. Extraction au format .dot

01

  • Netvizz est une application Facebook qui permet d’extraire en GDF pour Gephi :
    • Les comptes amis et leurs interactions dans un groupe
    • Un réseau de pages connectées entre elles
    • L’activité de publication et de commentaire sur une page

Analyse de texte ou d’un corpus : outil de traitement du corpus Automap, gratuit, accessible en ligne.

  • Cartographie des corrélations, des relations, des redondances entre les différents termes d’un corpus

1/B Les outils de représentation 

Gephi est un logiciel pour visualiser, analyser et explorer en temps réel les graphes (aussi appelés réseaux ou données relationnelles) de tout type. L’outil permet de représenter, ordonner, agencer les structures, formes et couleurs pour révéler les propriétés cachées d’un réseau via des saillances visuelles.

Les travaux produits sont exportables dans plusieurs formats, notamment le PDF qui permet ainsi d’être visionné par un ensemble large de destinataires. Gephi peut également exporter au format .csv les données importées.

Les formats supportés par Gephi :   GEXF14; GDF; DOT (language); GraphML; Graph Modelling Language

Que représenter avec Gephi ?

Sur les réseaux sociaux :

  • Les conversations autour d’une thématique (#hashtag ; combinaison de requêtes)
  • L’écosystème d’un compte Twitter
  • L’activité et l’écosystème d’une page Facebook

Sur le web :

  • Dynamique de diffusion et de relations entre des sites web et blogs

Autres possibilités :

  • Cartographie textuelle d’un corps de texte (nécessite un travail de filtre avec Automap)

02

1/C Introduction à la représentation cartographique : notions de base et vocabulaire

Pour produire un réseau, deux informations sont nécessaires: une liste des acteurs composant le réseau et une liste des relations entre ces acteurs. On appellera les acteurs « nœuds » ou « node » et les relations « arêtes » ou « arc ». Le label correspond au nom du nœud donc de l’acteur.

03

L’arc est orienté, cela veut dire que la relation va du compte 1, au compte 2. Ce type de relation est par exemple utilisé pour montrer que le compte 1 a envoyé un tweet ou suit le compte 2 en fonction des données collectées.

Dans le cas de Twitter, on obtient par exemple deux types de liens si on se centre sur un Node :

  • Les liens entrants : Le compte Twitter est suivi / mentionné par une personne identifiée
  • Les liens sortants : Le compte Twitter suit / mentionne une personne identifiée

Dans un graphe, un cycle est une chaîne simple dont les extrémités coïncident. On ne rencontre pas deux fois le même sommet, sauf celui choisi comme sommet de départ et d’arrivée.

On parle de « graphe connexe » si chaque node du graph possède au moins un lien de liaison avec tous les autres points. Deux sommets sont adjacents s’ils sont reliés par une arête. Un arbre constitue un graphe connexe ne présentant aucun cycle.

Un graphe est dit complet si toutes les paires de sommets sont adjacentes.

1/D L’interface de Gephi

L’interface se structure autour de 3 onglets pour répondre à ces différents besoins :

  • Une vue d’ensemble pour analyser l’information

 

04

  • Un laboratoire des données pour voir vos données : Se présentant sous la forme d’un simple tableau, vous pourrez manipuler vos informations comme vous l’auriez fait sous Excel. Une particularité, le laboratoire de données possède deux onglets en haut à gauche, un onglet Nœuds, et un onglet lien. Vous pourrez donc passer des données concernant les acteurs de votre réseau (les comptes Twitter par exemple), aux données reliant ses acteurs (qui suit /mentionne qui)
  • La zone de classement et de partition :dans cette zone, vous allez pouvoir colorier les données en fonction des paramètres obtenus par l’analyse statistique, ou séparer vos données pour leur appliquer des couleurs différentes. Vous pourrez par exemple séparer deux groupes sur le schéma pour les classer en fonction de différentes informations.

05

  • La zone de spatialisation : cet onglet va vous permettre de choisir un algorithme pour replacer les nœuds (comptes Twitter), au mieux et vous permettre de visualiser leurs interactions.
  • Un onglet de filtres et de statistiques: avec cet outil, vous allez pouvoir retirer certains nœuds (comptes Twitter) de votre réseau, filtrer l’information en fonction de certains paramètres, mais aussi effectuer des analyses statistiques.
  • L’affichage des données :Cet onglet permet de faire varier la taille des nœuds, des liens entre les nœuds, et d’afficher le nom des nœuds.

2/ Quel(s) algorithme(s) pour quel(s) objectif(s) de représentation ?

La logique des layouts “force based”

Les nœuds se repoussent comme des aimants, tandis que les liens attirent les nœuds qu’ils connectent, tels des ressorts.

Ces forces mettent les nœuds en mouvement, jusqu’à ce qu’un point d’équilibre soit atteint (les nœuds ne bougent plus).

2/A Mettre en avant des divisions entre différents composantes de la cartographie

OpenOrd a pour objectif de mettre en avant des divisions entre les différentes parties de la cartographie.

2/B Mettre en avant des complémentarités entre les différents éléments de la cartographie

Force Atlas permet de spatialiser des réseaux small-world / sans échelle. Il est axé sur la qualité, pour explorer « des données réelles » et permettre une interprétation rigoureuse du graphique avec le moins de biais possibles, et une bonne lisibilité.

La valeur de la force de répulsion dépend de la densité des nœuds et de leurs relations, l’important étant de bien distinguer les nœuds et de pouvoir lire chaque label (qui s’affiche via le « T » en bas de l’écran). La variable d’ajustement par taille permet d’éviter les chevauchements.

  • de 1 à 10 000 noeuds. Opportunité de mettre en exergue le poids des noeuds.

06

A noter la possibilité d’utiliser « Force Atlas 2 », une version de cet algorithme adaptée pour traiter des réseaux de plusieurs centaines de milliers de noeuds :

07

Ce qui nous donnera par exemple :

08

Fruchterman-Rheingold, le layout classique. Les forces s’exercent entre noeuds voisins. Il simule le graphique comme un système de particules de masse. Les noeuds sont les particules de masse et les bords sont des ressorts entre les particules.

  • De 1 à 1 000 noeuds. Pas de poids pour les noeuds.

09

Kamada and Kawai utilise une force d’attraction entre deux noeuds proportionnelle à la taille du chemin le plus court les séparant.

Yifan Hu rassemble les noeuds en groupe, et applique une logique force-based à ces groupes. Il s’agit d’un algorithme très rapide avec une bonne qualité sur les grands graphes. Il combine un modèle de force dirigée par une technique graphique de grossissement (algorithme à plusieurs niveaux) pour réduire la complexité. Les forces de répulsion sur un nœud d’un cluster de nœuds distants sont approchées par un calcul Barnes-Hut, qui les traite comme un super-nœud.

  • De 100 à 100 000 noeuds. Pas de poids sur les noeuds.

10

2/C Mettre en avant une logique de classification des éléments du graphique

Circular Axis Il attire les nœuds dans un cercle ordonné par ID, une métrique (degré, betweenness centralité …) ou par un attribut. A utiliser pour montrer une distribution de nœuds avec leurs liens.

  • De 1 à 1 000 000 noeuds

Radial Axis Layout regroupe les nœuds et attire les groupes axes rayonnant vers l’extérieur à partir d’un cercle central. Les groupes sont générés à l’aide d’une métrique (degré, betweenness centralité …) ou un attribut. A utiliser pour étudier les rapprochements en montrant les distributions de nœuds à l’intérieur des groupes avec leurs liens.

  • De 1 à 1 000 000 de noeuds.

GeoLayout permet d’obtenir une répartition géographique sur un support de carte. Il utilise des coordonnées latitude / longitude pour définir la position des noeuds sur le réseau. Plusieurs projections sont disponibles, y compris Mercator qui est utilisé par Google Maps et d’autres services en ligne. Les deux colonnes d’attributs de nœud pour les coordonnées doivent être au format numérique.

2/D Autres algorithmes 

  • Ajustement des labels/noverlap: Éviter que les noms se chevauchent sur votre réseau
  • Contraction/expansion: Augmente ou diminue l’espace entre les nœuds

3/ Représenter les nœuds en fonction des différents degrés de centralité

Une caractéristique importante des réseaux est la centralité relative des individus entre eux. La centralité est une caractéristique structurelle des personnes dans le réseau, ce qui signifie que la centralité vous dit quelque chose sur la façon dont cette personne s’inscrit dans l’ensemble du réseau. Les personnes ayant des scores de centralité élevés sont souvent plus susceptibles d’être des leaders, des conduits d’information clés, et d’être les premiers à adopter tout ce qui se répand dans un réseau.

11

3/A Degree centrality = A combien de personnes un compte peut accéder directement ?

  • connectivité locale => les noeuds avec beaucoup de voisins sont centraux / Il s’agit du nombre de liens qui mènent vers ou en dehors du nœud. Il est utile pour évaluer les nœuds qui sont centraux par rapport à la diffusion de l’information et influencer leurs communautés.

Il faut noter que par défaut, le calcul de degré ne prend pas en compte le nombre de liens entre une entité A et une entité B : 15 liens (mentions, RT sur twitter) tout comme 1 seul lien indiqueront un degré de relation. Il faut prendre en compte le poids, ou la pondération, via le calcul du “degré pondéré “sur Gephi (menu statistiques).

Le calcul de la centralité entrante pondérée (weighted in degree) donne un classement des comptes twitter avec le plus de mentions. Le calcul de la centralité sortante pondérée (weighted out degree) classe les comptes twitter en fonction du nombre de tweets où ils ont mentionnés d’autres comptes (typiquement des spammeurs ou des comptes très actifs sur une thématique qui mentionnent des alliés ou des personnes influentes).

12

3/B Closeness centrality = En combien de temps un compte peut-il toucher l’ensemble du réseau ?

  • Cette mesure traduit la distance sociale moyenne de chaque individu à tout autre individu dans le réseau. Elle calcule la longueur moyenne de tous les chemins les plus courts à partir d’un nœud à tous les autres nœuds dans le réseau.
  • C’est une mesure de portée, c’est à dire la vitesse à laquelle l’information peut atteindre d’autres nœuds à partir d’un nœud de départ donné.
  • En divisant 1 par le chemin du plus court moyen d’un individu à toutes les autres personnes dans le réseau, nous calculons leur centralité de proximité. De cette façon, une personne ayant un lien direct avec tout le monde finit avec un score de proximité de 1. Les personnes qui se connectent à la plupart des autres par de nombreux intermédiaires vont obtenir des scores proximité qui sont de plus en plus proche de zéro.
  • La proximité de centralité tend à donner des scores élevés aux personnes qui sont près du centre de grappes locales (aka communautés de réseau) dans un réseau global plus important.

Applications : Les comptes à haute proximité de centralité ont tendance à être des influenceurs importants au sein de leur communauté de réseau local. Ils sont souvent des personnalités publiques au sein d’une communauté, d’une profession. Ils sont souvent respectés localement et ils occupent les chemins courts pour diffuser les informations au sein de leur communauté en réseau

13

Mesure proche : le « Weighted clustering cofficient ». Cette mesure permet de calculer, en modérant en fonction de l’intensité des liens entre les nœuds (donc du nombre de mentions entrantes et sortantes) si les relations des nœuds proches d’un nœud A donné sont toutes connectées entres elles.

14

Cette mesure peut donc servir à préciser la closeness centrality en identifiant les nœuds et morceaux des réseaux les mieux connectés par communautés (et donc pour l’analyse twitter savoir si certaines communautés s’appuient sur quelques comptes qui se mentionnent les uns les autres ou alors des ensembles de comptes connectés uniquement via des relations distantes). On parle d’un effet « small world », c’est-à-dire que les membres d’une communauté donnée vont être reliés par un ensemble de petits réseaux locaux interconnectés entre eux.

Exemples :

15

A comparer avec :

16

La cartographie numéro 2 (closeness centrality) montre une prédominance des leaders locaux de réseaux dans les communautés vertes (@lemondefr), orange (@lemondelive) et bleu clair (@gadelmaleh), et une dispersion des leaders violets (critique politique du swissleaks).

La première cartographie permet de pondérer les résultats et de mieux expliquer la répartition de l’influence des différents groupes (voir calculs suivants). Bien que moins importantes en terme de comptes twitter et de total de mentions, les communautés violettes et oranges obtiennent une certaine influence parce que leurs leaders locaux sont très fortement connectés.

3/C Betweenness centrality (Centralité) = Quelle est la probabilité que cette personne soit l’itinéraire le plus direct entre deux personnes dans le réseau ?

  • connectivité => noeuds sur des lieux de passage sont centraux / Et donc de détecter les nœuds les plus susceptibles d’être dans des voies de communication entre les autres nœuds. Également utile pour déterminer les points où le réseau se briserait.

17

Il s’agit d’une mesure dérivée de la notion de décompte des chemins les plus courts entre les individus dans un réseau. Pour calculer la centralité intermédiaire, on commence par trouver tous les chemins les plus courts entre deux individus dans le réseau. Vous comptez alors le nombre de ces plus courts chemins qui passent par chaque individu. Ce nombre correspond à la centralité intermédiaire.

Ce calcul permet d’identifier les individus qui sont des conduits nécessaires à l’information qui doit traverser des éléments disparates de réseau. Ce sont généralement des personnes très différentes de celles avec une grande proximité. Les individus à forte Betweenness centrality (ou centralité) ne sont souvent pas le chemin le plus court pour joindre tout le monde, mais ils ont le plus grand nombre de chemins les plus courts qui vont nécessairement passer par eux.

Dans un réseau social, les individus avec un score élevé de centralité se trouvent souvent aux intersections des communautés de réseau plus densément connectés.

Applications : En raison de leurs emplacements entre les communautés de réseau, ces comptes à forte Betweenness centrality sont naturellement des courtiers d’information.

18

La mesure de la Betweeness centrality permet d’identifier plus facilement des réseaux activistes, utiles pour faire passer un message mais pas toujours visibles en termes de mentions.

3/D « Centralité Eigenvector » = A combien de personnes bien connectées ce compte est-il relié ?

Cette analyse statistique permet de déterminer l’importance d’une personne au sein d’un réseau, et donc d’attribuer des valeurs à chaque personne de votre réseau. Une fois cette statistique calculée, vous pouvez aller sur le panneau de classement en haut à droite, et affecter une taille en fonction du paramètre « eigencentrality ». Vos données doivent être entre une taille minimum de 10 et maximum de 50. Utile pour déterminer qui est connecté aux nœuds les plus connectés.

19

Cette mesure désigne essentiellement le fait qu’un individu est un compte autoritaire connecté à d’autres comptes autoritaires au sein d’un vaste réseau. Eigenvector centralité est calculée en évaluant la façon dont un individu est relié aux parties du réseau avec la plus grande connectivité. Les personnes ayant des scores élevés de vecteurs propres ont de nombreuses connexions, et leurs connexions ont de nombreuses connexions, et leurs connexions ont de nombreuses connexions … jusqu’au bout du réseau.

Applications: Les individus possédant un vecteur propre de centralité élevé sont considérés comme les leaders du réseau. Ce sont souvent des personnalités publiques avec de nombreux liens avec d’autres personnes à haut profil. Ainsi, ils jouent souvent des rôles de leaders d’opinion clés et façonnent la perception du public. Un exemple de cela est l’algorithme page rank de Google, qui est étroitement liée au vecteur propre de centralité calculé sur des sites Internet basés sur les liens pointant vers eux.

Ces comptes ne peuvent cependant pas effectuer nécessairement les rôles de haute proximité et intermédiarité. Ils n’ont pas toujours la plus grande influence locale et peuvent avoir un potentiel de courtage limitée. Comme un roi à l’écart dans sa cour ou le directeur général dans sa salle de réunion , ils peuvent parfois être isolés des individus et des communautés périphériques de réseau de petite taille qui ont une connectivité limitée avec les parties les plus densément connectés du réseau .

Les Hubs concentrent les liens sortants. Ils correspondent à des comptes chargés de redistribuer l’information à une communauté. Les Autorités centralisent les liens entrants. Ces liens se traduisent par des mentions, des sollicitations ou des références à un compte source.

3/E Modularity class = Identifier les relations entre les nœuds et mettre en avant des communautés

Le filtre statistique Modularity Class est disponible dans l’onglet statistique à droite, qui s’appelle plus communément modularité. Il va détecter automatiquement si des personnes de votre réseau semblent liées entre elles. Ce calcul est pertinent à partir de plusieurs milliers de relations. Ce filtre va déterminer les communautés à l’intérieur du graphe, c’est à dire des ensembles de sommets fortement reliés entre eux, ce qui revient, dans la majeure partie des cas, à déterminer des groupes d’individus qui ont tendance à se retweeter, à s’interpeller ou à se mentionner.

Modularité (Newman 2004) :Nombre de liens dans chaque groupe moins le nombre de liens dans les mêmes groupes, dans un graph ou les liens auraient été redistribués de façon aléatoire.Trouver les communautés dans un graph = définir des groupes de façon à ce que le score de modularité soit le plus élevé.

Pour afficher cette information sur la carte, vous devez vous rendre par la suite dans l’onglet partition en haut à gauche, et sélectionner la statistique que vous avez créée, « modularity class ». En appliquant cette partition, les couleurs de votre réseau vont se modifier, et mettre en avant les relations entre les personnes. question game Il peut être utile de modifier les couleurs par défaut, Gephi ayant tendance à choisir des couleurs sombres assez semblables pour les principales communautés, ce qui peut engendrer des confusions.

Comme le présente la cartographie ci-dessous correspondant au buzz contre la RATP après le retrait d’affiches de publicité soutenant les chrétiens d’orient, après calcul et utilisation du filtre, la modularité met en évidence 4 espaces de conversation distincts :

vert : sphère “institutionnelle” : responsables politiques et religieux et leurs correspondants ;

bleu : leaders d’opinion ancrés à droite et leurs correspondants ;

bleu clair : militants catholiques radicaux et leurs correspondants ;

jaune : abbés Grosjean et Amar et leurs correspondants ;

rose : leaders d’opinion d’extrême-droite et leurs correspondants.

20

3/F Aller plus loin dans l’analyse en combinant des filtres

 

Faible nombre de mentions Faible score de proximité Faible centralité dans le réseau
Fort nombre de mentions Compte twitter membre d’un cluster éloigné du réseau Connections du compte twitter redondantes et ne passant pas par lui
Fort score de proximité Compte twitter relié à des comptes très actifs ou influents Compte twitter relié à plusieurs autres comptes mais pas central
Forte centralité dans le réseau Compte twitter essentiel pour la diffusion à certaines communautés Compte twitter sert de lien exclusif entre le reste du réseau et un cluster

 

Il est également possible via les filtres de Gephi de combiner des calculs statistiques, pour raffiner les résultats obtenus et identifier des comptes twitter aux propriétés spécifiques :

Exemple : Croisement entre le filtrage des comptes twitter les plus mentionnés et la variation de leur taille par valeur de betweeness centrality sur les tweets français de SwissLeaks

21

On voit sur la cartographie des comptes les plus mentionnés que le compte @gadelmaleh est très mentionné, tout comme celui du @mondefr. Mais est-il central dans les discussions, et surtout est-il à l’origine lui-même de ces mentions ?

22

La cartographie du croisement des informations « mentions / degré » et « centralité / betweeness » nous indique que si @gadelmaleh a beaucoup de mentions, il a une faible centralité dans le réseau : les connections ne passent pas par lui, et c’est bien normal, puisque l’acteur est mentionné à l’insu de son plein gré !

A l’inverse, on constate que le compte @gracchusX, qui est très visible sur la deuxième cartographie, a donc un fort score de betweeness centrality, sans être énormément mentionné : il sert de passerelle avec une communauté spécifique.

On peut également, sous réserve de disposer d’un fichier enrichi, ajouter autant de filtres qu’il y a de données à comparer. Par exemple, NodeXL propose, en récupérant les mentions entre comptes twitter sur une recherche donnée, d’ajouter les données suivantes au fichier excel exportable – Visibrain proposera prochainement des exports enrichis également :

  • Pour les liens : type de tweet (mention, réponse, RT) ; date du tweet ; nom de domaine d’une éventuelle URL présente ; hashtags utilisés : coordonnées du tweet (si géolocalisés – latitude et longitude)
  • Pour les noeuds (comptes twitter ici) : nombre d’abonnés, nombre d’abonnements, total de tweets, total de favoris, location, zone horaire, date de création du compte …

A noter que pour tirer profit de ces informations supplémentaires, il faut préciser en les important leur type : texte, nombre, données temporelles … et les filtres de Gephi s’adapteront en conséquence.

Cela permet d’effectuer des analyses très précises en intégrant à la fois les calculs de statistiques propres à Gephi et des filtrages liés à la nature des données importées dans Gephi.

BONNE NOUVELLE, VISIBRAIN INTÈGRE MAINTENANT CES DONNÉES AUX EXPORTS (format GEXF). Le gros avantage par rapport à NodeXL est qu’il n’y a pas de manipulation à effectuer pour utiliser ces filtres additionnels, notamment le filtre temporel.

Un exemple concret avec la cartographie des tweets concernant le scandale des frais de taxis de l’ex directrice de l’INA :

23

On a ci-dessus la carte des comptes les plus mentionnés. On peut maintenant l’affiner en affichant uniquement les comptes parmi cette cartographie qui ont un nombre important d’abonnés, pour voir si ce sont bien ces comptes qui sont à l’origine du buzz :

24

On voit bien que les comptes avec le plus d’abonnés ont très peu contribué à la propagation du buzz. Ce sont principalement des médias qui ont repris l’information sans en être à l’origine.

Il est également possible de filtrer les labels des noeufs affichés dans l’export d’une cartographie, afin de la rendre plus lisible :

Clipboard

La procédure est assez simple à mettre en place. Après avoir choisi un filtre sur Gephi et validé l’affichage des labels sur l’espace de travail, il suffit de sélectionner une plage de valeurs (et non de la “filtrer”) puis de cliquer sur le masquage des labels hors de la sélection :

2015-07-25_1212

4/ SIGMA : L’export analytique et esthétique

Sigma (http://sigmajs.org/) est une fonction d’export très aisée à installer puis à utiliser pour faciliter l’analyse de la cartographie ainsi qu’améliorer son esthétique et sa compréhension.

Installation :

Rendez-vous sur https://marketplace.gephi.org/plugin/sigmajs-exporter/ pour télécharger le template puis l’installer dans Gephi. Seconde solution, plus simple, vous pouvez également vous rendre directement dans Gephi puis dans OutilsModules d’extension puis rechercher Sigma.js dans les modules d’extension disponibles.

25

26

Export :

Une fois votre travail de représentation des données sur Gephi, rendez-vous dans Fichier puis Exporter, choisissez enfin le format sigma.js

27

A savoir, l’export Sigma.js créé un dossier de fichier appelé par défaut « network », qu’il est obligatoire de garder ou de déplacer dans sa totalité. Afin de lire votre cartographie, il vous faudra ouvrir le fichier « index.html» avec Mozilla Firefox et uniquement Mozilla.

Esthétique et analyse de la représentation

28

L’esthétique est bien plus harmonieuse qu’avec Gephi, en mode Flat Design. Sigma.js vous permet :

  • cliquer sur un nœud et isoler son réseau de relations au sein du réseau gobal
  • rechercher un nœud grâce à son username
  • obtenir un large éventail d’informations sur chacun des nœuds (Betweenness centrality, Eigenvector centrality, degré entrant et sortant, la modularité, l’ensemble des comptes en relations) ➔ Ces informations émanent de la qualité des méta-données avant le travail dans Gephi mais aussi en fonction des statistiques et filtres utilisés pour réaliser la cartographie.

29

Jérémy Cauden

Chargé de veille et d’études à La Netscouade

Guillaume Sylvestre

Consultant en veille et e-réputation à l’ADIT

L’article Utilisation du logiciel Gephi pour l’analyse cartographique est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Poulpit : un outil d’un nouveau genre pour gérer vos réseaux sociaux https://master-iesc-angers.com/poulpit-un-outil-dun-nouveau-genre-pour-gerer-vos-reseaux-sociaux/ Tue, 10 Feb 2015 11:18:45 +0000 http://master-iesc-angers.com/?p=888 Qu’est-ce que Poulpit ? Il s’agit d’un outil qui permet de centraliser l’ensemble de nos flux d’actualité et de les gérer à partir d’un même endroit. Pour vous donner un exemple, vous aurez la possibilité de réunir sur une seule unique… Continuer la lecture

L’article Poulpit : un outil d’un nouveau genre pour gérer vos réseaux sociaux est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Qu’est-ce que Poulpit ? Il s’agit d’un outil qui permet de centraliser l’ensemble de nos flux d’actualité et de les gérer à partir d’un même endroit. Pour vous donner un exemple, vous aurez la possibilité de réunir sur une seule unique page vos actualités twitter, facebook et intsagram. Ainsi il ne vous sera plus nécessaire de jongler entre les différents onglets votre smartphone ou de votre ordinateur. Un gain de temps précieux !

Je vais tenter, au travers de cet article, de vous expliquer le principe de fonctionnement de ce nouvel outil.

Première phase : l’inscription

  • Il faut se rendre sur le site : http://poulpit.fr/
  • Cliquer sur l’onglet s’inscrire en haut à droite
  • Renseigner une adresse mail valide
  • Ajouter ses comptes afin de suivre l’actualité de Twitter, Facebook, Instagram, Sound cloud et Feedly sur un seul site

Un conseil : il est intéressant de rajouter le plus de réseaux sociaux possibles afin d’exploiter au mieux cet outil et de suivre l’actualité.

2015-02-10_0132

Seconde phase : L’ajout d’abonnement

Il s’agit d’une étape importante

Poulpit propose une sélection d’abonnements que l’on peut suivre en plus de ceux que l’on suit déjà. Ils sont classés par catégorie.

2015-02-10_0133

Par exemple si je clique sur l’onglet foot, l’outil Poulpit me propose de suivre différentes catégories en rapport avec le football comme des joueurs, des consultants ou une catégorie concernant l’actualité footballistique.

2015-02-10_0133_001

C’est notamment très utile dans le cadre d’une veille concernant des personnalités. Par exemple, lors d’une campagne présidentielle, Poulpit vous permettra de suivre l’actualité de plusieurs politiciens et cela sur différents réseaux sociaux. Il s’agit d’un gain de temps non négligeable.

Pour que cet outil soit vraiment intéressant je vous conseille de bien choisir les abonnements à suivre. Après, cet outil peut être simplement utilisé pour avoir notre actualité sur une seule page.

Troisième phase : Le tri

  • Pour cela, il faut cliquer sur l’onglet à gauche Organiser.
  • Il faut maintenant cliquer sur les pages que l’on désire regrouper.

Par exemple, je décide de regrouper les pages anelkaofficiel, Arsenal Transfer Speculation, beIN SPORTS France et je clique sur ajouter à : foot.

  • Si je désire rajouter une nouvelle catégorie je clique sur Ajouter une catégorie (l’onglet à gauche juste en haut de l’onglet Organiser).

A noter que c’est nous qui nommons les catégories comme nous le voulons. C’est intéressant dans le cadre d’une veille de pouvoir nommer une catégorie comme nous le souhaitons.

2015-02-10_0134

Une fois le tri effectué, l’outil est prêt à l’usage.

Il est possible de mettre en favoris nos pages préférées et de les suivre uniquement en cliquant sur l’onglet favoris en haut à gauche. Pour rajouter une page en favoris il faut cliquer sur la petite étoile à côté du nom de la page.

Par exemple dans le prochain screenshot on constate que j’ai 10 pages en favoris avec le parisien et vogue paris.

2015-02-10_0135

Pourquoi avoir choisi cet outil ?

L’inscription est rapide. Il est simple d’utilisation. C’est un outil intéressant dans le cadre d’une veille. Vous gagnerez un temps précieux. Il vous permettra de suivre l’actualité de plusieurs plateformes sur une seule et même page. Par exemple si vous aimez le foot (comme moi) il est possible de suivre les tweets de Thierry HENRY grâce à son compte tweeter, de voir les dernières images de Cristiano RONALDO via notre compte Instagram et de suivre l’actualité du PSG via leur page Facebook.

Vous aurez aussi la possibilité de suivre différentes personnalités, et de trouver des informations les concernant grâce à la barre de recherche. questions to ask . Cette barre de recherche regroupera l’ensemble des informations de vos différents réseaux sociaux que ce soit facebook, twitter ou bien instagram. . D’un seul clic, toutes vos plateformes sociales seront mises à jour.

Cet outil est évidemment disponible aussi bien sur ordinateur que sur smartphone ou sur tablette.

Nb : Poulpit est en version beta, donc encore en développement

Djamel Meguetouhnif, étudiant promotion 2014-2015 du Master 2 Intelligence Economique et Stratégies Compétitives de l’Université d’Angers

http://www.doyoubuzz.com/djamel-meguetouhnif

L’article Poulpit : un outil d’un nouveau genre pour gérer vos réseaux sociaux est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Topsy : l’analyse et la recherche du web social https://master-iesc-angers.com/topsy-lanalyse-et-la-recherche-du-web-social/ https://master-iesc-angers.com/topsy-lanalyse-et-la-recherche-du-web-social/#comments Mon, 05 Jan 2015 09:40:22 +0000 http://master-iesc-angers.com/?p=838 Fondée en 2007 à San Francisco, Topsy fait partie des quatre sociétés (Gnip, NTT Data et Data Shift) partenaires de Twitter et certifiées comme revendeurs officiels de données. Ainsi, cette dernière a accès à un grand nombre de données de… Continuer la lecture

L’article Topsy : l’analyse et la recherche du web social est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Fondée en 2007 à San Francisco, Topsy fait partie des quatre sociétés (Gnip, NTT Data et Data Shift) partenaires de Twitter et certifiées comme revendeurs officiels de données. Ainsi, cette dernière a accès à un grand nombre de données de l’un des plus gros réseaux sociaux avec Facebook. indexer tous les tweets depuis le début de Twitter en 2006, créant ainsi un moteur de recherche payant dédié à ce dernier. Topsy affirme vouloir aider ses clients à « analyser instantanément n’importe quel sujet, expression ou hashtag à travers des années de messages, sur des millions de sites internet ». C’est ainsi qu’un baromètre Twitter et Topsy avaient été mis en place lors de la campagne présidentielle américaine de 2012 afin de suivre l’évolution de l’opinion publique sur Twitter tout au long de la campagne électorale aux états unis.

Les différents produits de la société Topsy sont :

  • Topsy pro Analystics ;
  • Topsy pro Analystics public sector ;
  • Topsy API services;
  • Topsy.com.

Etape 1 :

Pour accéder aux différentes options de Topsy, il faut visiter www.topsy.com à travers un navigateur, j’ai testé avec google chrome et Firefox, le résultat reste le même pour les trois navigateurs :

2015-01-04_2104

Après que vous accédez à topsy.com il faut se connecter à votre compte twitter pour commencer votre recherche.

Etape 2 :

Une fois que vous êtes connectés, vous pouvez commencer à exploiter Topsy.

taper un mot ou une expression et lancer votre recherche.

Je prends l’exemple d’Angers ici :

2015-01-04_2110

Je vais commencer par afficher tous les résultats :

 2015-01-04_2112

En cliquant sur recherche vous aurez tous les liens, tweets, photos, vidéos pour les 5 derniers jours.

Après vous avez la possibilité de personnaliser votre recherche selon votre besoin, la langue, la date de parution de l’information, et sa forme (lien, tweet ou vidéo…).

Nous allons essayer de filtrer notre recherche pour avoir plus de précision en affichant uniquement les tweets français triés par date :

2015-01-04_2113

Topsy vous permet de:

  • Passez en revue tous les tweets selon le contenu, y compris les principaux influenceurs ;
  • Trouver les influenceurs sur un sujet précis ;
  • Trouver tous les messages d’une personne ou influenceur sur un sujet précis ;
  • Trouver tous les tweets d’un utilisateur, un lien vers un site spécifique et les liens qu’ils partagent ;
  • Entreprendre des analyses détaillées de suivi pour des mots clés ou des sites.

Social Analytics :

Avec Topsy Social Analytics, vous pouvez analyser les domaines, noms d’utilisateur Twitter ou les mots clés –  . Chaque type d’analyse renvoie des résultats différents.

La comparaison  peut se faire sur trois sujets via des mots-clés.

2015-01-04_2115

Ou des noms de domaine de sites web :

2015-01-04_2117
Ou encore des @noms d’utilisateur, les entreprises aimeront cela pour l’analyse concurrentielle. Mettez votre compte et celui de deux concurrents dans l’outil de comparaison pour voir qui les citent :

2015-01-04_2118

A noter que Topsy n’intègre pas l’exhaustivité des tweets, sur des forts volumes il peut donc y avoir des erreurs.

 

Social Trends :

Les deux nouveaux outils, alertes et rapports Topsy, offrent aux utilisateurs la possibilité de surveiller toutes les conversations et d’être alerté de manière proactive avec les informations les plus importantes pour leur activité. Avec Topsy alertes, les utilisateurs peuvent recevoir une notification immédiate d’un changement dans l’activité, le sentiment ou l’accélération pour n’importe quel sujet.
Mais cette option ne marche que si vous avez un compte Pro avec Topsy (la version payante).

Exemple des top 100 trends :

2015-01-04_2120

Les utilisateurs de Topsy disposent d’un moyen de tirer parti d’analyses des social médias  pour répondre aux besoins de leurs clients tout en restant connecté avec les tendances et les sujets pertinents.

Personnellement, je trouve que topsy est un moteur de recherche très puissant et intelligent qui offre aux utilisateurs la possibilité de surveiller d’une manière efficace les medias sociaux.

Topsy se différencie des autres moteurs gratuits :

  1. Il permet de segmenter les tweets par type : url, photos, etc ;
  2. Il permet de découvrir l’usager twitter qui twitte le plus, un moyen très intelligent de suivre de nouveaux comptes twitter ;
  3. Il permet de choisir facilement la période d’analyse des tweets ;
  4. Il met en évidence facilement les tweets les plus retweetés sur un sujet donné.

Ce que je reproche à Topsy est qu’on ne peut pas filtrer la recherche par zone géographique.

Imane Khomalli, étudiante promotion 2014-2015 du master 2 IESC

https://www.linkedin.com/pub/imane-khomalli/70/b46/52a

 

L’article Topsy : l’analyse et la recherche du web social est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
https://master-iesc-angers.com/topsy-lanalyse-et-la-recherche-du-web-social/feed/ 6
Présentation de l’outil de veille « Mention » https://master-iesc-angers.com/presentation-de-loutil-de-veille-mention/ Thu, 20 Nov 2014 13:28:50 +0000 http://master-iesc-angers.com/?p=798 Mention est un outil de veille média qui permet de surveiller une grande partie de la toile, il collecte donc une masse importante d’information. Mention va aussi bien agréger des contenus multimédias, de l’information présente sur les médias sociaux, ainsi… Continuer la lecture

L’article Présentation de l’outil de veille « Mention » est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Mention est un outil de veille média qui permet de surveiller une grande partie de la toile, il collecte donc une masse importante d’information. Mention va aussi bien agréger des contenus multimédias, de l’information présente sur les médias sociaux, ainsi que des sites web plus généralement. Utile lorsqu’on souhaite suivre sa marque ou sa réputation sur le web. Avec mention il est possible de réagir en temps réel.

Mention est un logiciel qui existe sous plusieurs plateformes Windows et Mac, tablettes et smartphones (iPhone et Android).

C’est un outil simple, grâce à son interface qui explique toutes les différentes fonctionnalités à l’utilisateur.

Etape 1 : créer une alerte

On commence par la création des alertes pertinentes

mention_1

Le nom de l’alerte reste un choix personnel, néanmoins c’est mieux de choisir un nom qui est significatif et en relation avec les mots clefs et les informations que vous désirez surveiller sur internet.

Il faut ensuite déterminer le nom de l’alerte, les mots clefs et les langues utilisées. Le champ “paramètres avancés” permet d’affiner la recherche, intégrer plusieurs mots-clés et les gérer, proposer un mot ou une expression que l’on ne souhaite pas retrouver dans les mentions.

mention_2

La seule chose qui manque au niveau de la création des alertes est que Mention ne prend pas en compte l’expression entière mais mot par mot, ce qui peut influencer la recherche.

Exemple : intelligence économique, mention considère l’expression « intelligence » et « économique » et non pas le sens entier. Il faut donc faire la recherche « intelligence économique » pour éviter ce problème (utiliser les guillemets).

mention_3

J’ai créé une alerte qui s’appelle France et j’ai défini les mots clés, ou l’expression qui me paraissait pertinente pour ma recherche, après on peut définir les langues de la recherche.

mention_4

  • Sources : Sélectionner les différentes sources sur lesquelles seront basées les recherches ;
  • URL bloquées : Possibilité de bloquer complètement une URL ;
  • Technologies : L’option “mentions prioritaires” permet d’’indiquer les mentions jugées importantes et/ou influentes, L’option “Technologie anti-bruit “, supprime automatiquement les mentions similaires à celles effacées précédemment.

mention_5

Mention offre également l’option d’ajouter des comptes sociaux pour suivre et commenter l’information en temps réel sous twitter ou Facebook ce qui nécessite avoir un compte sur les réseaux sociaux.

Mention dispose d’une barre des tâches qui regroupe un ensemble de fonctionnalités :

mention_6

Pour pouvoir accéder à la barre de tâches il est nécessaire de sélectionner une alerte.

Les fonctionnalités proposées sont les suivantes :

  • Mentions : consulter les résultats de l’alerte ;
  • Comptes sociaux : visionner les comptes créés en lien avec l’alerte ;
  • Tâches : consulter les tâches à faire (lire, partager ou répondre) ;
  • Statistiques : visionner des données chiffrées sur l’alerte en fonction des sources, des langues sélectionnées et des jours ;
  • Activité : notification de ce que les utilisateurs ont réalisé dans l’alerte (noter une mention négative ou positive, supprimer ou ajouter dans les favoris) ;
  • Spam : recenser les mentions considérées comme indésirable ;
  • Partage : visualiser les personnes qui ont accès aux mentions de l’alerte ;
  • Partager une alerte : sélectionner les personnes avec qui partager le contenu de l’alerte (utilisateurs du compte ou personnes extérieurs).

Mention est un outil qui offre plusieurs facilités au niveau du partage dans le cadre de travail collaboratif, mais le résultat de l’alerte n’est pas organisé ou classé selon les sources, ce qui peut rendre la recherche des fois longue et difficile.

mention_7

Vous pouvez importer tous vos statistiques en format PDF, CSV… mais cette option est payante.

Mention est un outil très intéressant qui offre plusieurs possibilités pour réussir une veille et filtrer l’information, mais je trouve que le fait qu’il se base en premier lieu sur les réseaux sociaux est un peu limité. Il m’a également fallu redémarrer souvent le logiciel dans sa version téléchargeable ou via le navigateur Chrome à cause de plantages.

Imane Khomalli, étudiante du M2 IESC promotion 2014-2015

https://www.linkedin.com/pub/imane-khomalli/70/b46/52a

L’article Présentation de l’outil de veille « Mention » est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Faveeo, un outil de veille novateur et original https://master-iesc-angers.com/faveeo-un-outil-de-veille-novateur-et-original/ https://master-iesc-angers.com/faveeo-un-outil-de-veille-novateur-et-original/#comments Mon, 22 Sep 2014 11:37:34 +0000 http://master-iesc-angers.com/?p=748 Faveeo est un nouvel outil de veille professionnel développé à l’occasion d’un projet de recherche, et qui est aujourd’hui essentiellement utilisé par des centres de recherche, des ONG, et des sociétés d’intelligence économique. L’intérêt de ce logiciel de veille, outre… Continuer la lecture

L’article Faveeo, un outil de veille novateur et original est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Faveeo est un nouvel outil de veille professionnel développé à l’occasion d’un projet de recherche, et qui est aujourd’hui essentiellement utilisé par des centres de recherche, des ONG, et des sociétés d’intelligence économique.

L’intérêt de ce logiciel de veille, outre son prix relativement abordable par rapport aux autres acteurs du secteur, est son fonctionnement par concepts : si on peut mettre en surveillance des mots-clés, l’équipe de Faveeo a créé des concepts à partir des termes définis sur wikipedia (un moteur sémantique interne prendra le relais en fin d’année) pour mieux délimiter les champs de recherche.

C’est donc autour de cette notion de concept que fonctionne Faveoo. N’hésitez pas par ailleurs à demander de le tester : http://www.faveeo.com/

Attention, pour l’instant, seul l’anglais est pris en compte dans les concepts. Il faudra attendre la fin 2014 pour que le français soit implémenté.

1. Le paramétrage d’une veille : le « magazine »

En premier lieu, il est important de savoir que Faveeo appelle un projet de veille « magazine ». Dans la version test, on peut créer 5 magazines. Quand on choisit d’en créer un, l’interface propose de choisir un titre pour le « magazine » ainsi qu’un premier mot-clé.

01_Faveeo

Ici, on se propose de mettre en place une veille sur les ressources en eau. En entrant les mots-clés, Faveeo propose automatiquement des concepts. On peut choisir d’entrer un mot-clé en dehors des concepts ou en n’en sélectionnant aucun.

On accède ensuite à la vue « Magazine », qui montre les articles issus de la recherche par mot-clé / concept. Ces articles sont disponibles en recherche « web », qui correspond à une recherche sur plusieurs moteurs tels que google, yahoo, etc ; ou en recherche « news » qui correspond aux sites d’actualités.

La barre en haut à gauche avec le nom du « magazine » permet d’en éditer les propriétés, de le renommer, de le partager, de paramétrer l’envoi d’un résumé des articles (chaque jour, chaque semaine …), mais aussi d’en faire un lien public. A noter que le partage peut se faire via un ou plusieurs groupes d’utilisateurs de Faveoo au sein de la même entreprise.

02_Faveeo

L’affichage des articles permet de lire rapidement le titre de l’information, sa date de publication, la source d’origine, ainsi que les premières lignes. Il est possible de sauvegarder, noter ou partager chaque article – et cacher ceux déjà lus par l’utilisateur.

Une fonctionnalité intéressante existe pour rechercher des rapports ou des documents plus complets, celle de n’afficher que les pdf issus de la recherche effectuée (à droite des onglets Web et News).

Les articles peuvent être organisés par date de parution ou proximité avec la requête. Une version compacte des articles peut également être affichée pour une meilleure lisibilité (à droite de l’écran) :

 03_Faveeo

2. La cartographie des sources et des concepts

La véritable originalité de Faveeo, et je pense son principal potentiel pour les organisations qui font non seulement de la veille, mais aussi de l’intelligence économique, c’est son outil de cartographie des concepts et des sources dont les articles aspirés sont issus. Cette option est accessible via le bouton « Edit » en haut à droite de l’écran.

La partie gauche du nouvel écran affiche la carte des concepts, les uns positionnés autour des autres. On notera qu’il est possible d’afficher la carte des sources, des endroits cités dans les articles, et également d’afficher une carte « social » sur laquelle nous reviendront.

Concrètement, cela permet d’affiner très précisément la veille de Faveeo. Un clic gauche sur un concept permet, au choix, de l’ajouter aux mots-clés (au milieu de l’écran, voir prochaines captures d’écran) surveillés ou alors de l’enlever, ce qui correspond à AND, OR ou NOT.

L’utilisateur peut également, si il se rend compte qu’un concept répond mieux à son besoin de veille, réorganiser la veille autour de ce concept, toujours avec un clic gauche. Il est possible de faire défiler plusieurs pages de concepts en cliquant en bas de la page sur la flèche correspondante, bien que les pages suivantes correspondent à priori aux concepts les plus éloignés.

04_Faveeo

On pourra également donc choisir de promouvoir un pays ou une source spécifique, ou alors l’exclure des recherches, via les onglets « View Locations » et « View Sources ».

05_Faveeo

Au milieu de l’écran s’affichent les concepts choisis, ainsi que les sources et les pays promus ou exclus de la recherche. Un dernier onglet à droite de l’écran permet d’afficher rapidement les résultats obtenus par la manipulation des termes de la recherche, qu’il s’agisse de la recherche sur des moteurs, sur des sites de news ou des PDF.

06_Faveeo

Faveeo est donc un outil très intéressant pour étendre ou restreindre son champ de recherche afin d’éviter de recevoir trop d’articles inintéressants. De la même façon, Faveeo permet d’identifier de nouvelles sources de façon plus intuitive que la plupart des outils de veille.

Cela fait de Faveeo un outil de veille très utile pour des sociétés d’intelligences économiques ou des organisations ayant des champs et domaines de veille variés qui nécessitent des ajustements et un suivi des sources en continu. Faveeo facilite très clairement ce travail.

3. Une fonctionnalité originale : la veille des articles partagés sur twitter par des influenceurs

Faveeo a récemment mis en place une nouvelle fonctionnalité : la possibilité d’afficher dans son « magazine » les liens postés par des comptes twitter jugés influents dans le champ de recherche. Cette option permet d’une part de prendre en compte la nécessité grandissante pour la veille de suivre l’information en temps réel, et d’autre part d’éviter de devoir trier de nombreux tweets sans rapport avec la thématique de veille – notamment dans notre exemple sur l’eau.

Pour pallier à l’impossibilité d’appliquer l’utilisation des concepts pour mettre en place cette veille twitter, Faveoo procède en deux étapes.

Tout d’abord, en cliquant sur l’onglet « View Social », Faveeo propose d’effectuer une recherche de comptes twitter par mots-clés. Les résultats donnés correspondent à ceux du moteur de recherche de twitter, en pondérant avec leur nombre d’abonnés et la proximité de leur descriptif avec la recherche :

07_Faveeo

Faveeo demande ensuite à l’utilisateur de choisir 5 comptes twitter qu’il juge les plus pertinents sur son sujet de veille. Il est bien sûr possible de faire plusieurs recherche en sauvegardant un ou deux comptes, et de rentrer directement le nom d’un compte twitter déjà identifié (sans le @).

Une fois les 5 comptes sélectionnés, il faut appuyer sur « compute influenceurs » pour voir s’afficher le concept « social ». On voit ainsi s’afficher les 20 comptes les plus reliés aux 5 déjà identifiés sur la thématique choisie.

On peut bien évidemment enlever certains comptes et modifier la recherche. Pour avoir testé plusieurs fois ce module, je le trouve assez efficace. Le principe de partir du choix de l’utilisateur me parait le meilleur pour déterminer des « influenceurs », puisque la notion même est très subjective.

08_Faveeo

Une fois ce paramétrage effectué, vous aurez accès dans votre magazine aux derniers articles publiés via twitter par l’ensemble de ces comptes. Le tweet original avec son lien remplace le titre, mais l’affichage montre toujours la source de l’article, la date ainsi qu’un résumé.

Cette option me semble très pertinente à la fois pour suivre l’information en temps réel, mais surtout pour identifier de nouvelles sources.

09_Faveeo

Conclusion

En résumé, si Faveeo ne va pas forcément être l’outil le plus adapté pour remplacer l’ensemble de votre dispositif de veille, il peut se révéler très intéressant et abordable comme complément pour intégrer de nouvelles sources et mieux délimiter la veille.

Par contre, si vous utilisez des solutions de veille gratuites ou limitées de type Mention ou flux RSS, Faveeo peut être l’outil professionnel qu’il vous faut pour rendre votre veille plus précise et efficace.

J’insiste sur le fait que Faveeo est très intéressant pour des veilles sur des thématiques multiples pour lesquelles il n’est pas forcément évident de trouver les bons mots-clés et les sources les plus pertinentes. Si le paramétrage des outils de veille n’est pas votre point fort, Faveeo vous permet de faire vos propres choix de façon très intuitive.

L’article Faveeo, un outil de veille novateur et original est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
https://master-iesc-angers.com/faveeo-un-outil-de-veille-novateur-et-original/feed/ 57
Buzzsumo, pour identifier les articles les plus diffusés sur les réseaux sociaux et les « influenceurs » de twitter https://master-iesc-angers.com/buzzsumo-pour-identifier-les-articles-les-plus-diffuses-sur-les-reseaux-sociaux-et-les-influenceurs-de-twitter/ Sun, 10 Aug 2014 10:27:05 +0000 http://master-iesc-angers.com/?p=715                 Nous présentions dans un précédent article le site Sharecount.com, qui permet d’obtenir le nombre de partages sur les réseaux sociaux d’un article donné. Buzzsumo, de son côté, propose à l’internaute d’effectuer des recherches sur des mots-clés pour trouver les… Continuer la lecture

L’article Buzzsumo, pour identifier les articles les plus diffusés sur les réseaux sociaux et les « influenceurs » de twitter est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
                Nous présentions dans un précédent article le site Sharecount.com, qui permet d’obtenir le nombre de partages sur les réseaux sociaux d’un article donné. Buzzsumo, de son côté, propose à l’internaute d’effectuer des recherches sur des mots-clés pour trouver les articles les plus diffusés sur un sujet donné, en indiquant le nombre de partages sur les principaux réseaux sociaux de chacun des articles : facebook, twitter, linkedin, pinterest et Google +. Buzzsumo propose également d’identifier les principaux comptes twitter qui parlent de votre recherche.

Buzzsumo1

On peut filtrer les recherches pour ne retenir par exemple que des infographies ou des interviews, sur des périodes allant de 24 heures à six mois. Le résultat des recherches est classé par nombre total de partages sur les réseaux sociaux, mais on peut également choisir d’afficher la recherche par nombre de partages sur un réseau social spécifique.

Buzzsumo2

Il est possible pour chaque article d’afficher les personnes qui l’ont le plus partagées sur twitter, en cliquant sur « View Sharers ».

Buzzsumo3

On peut ensuite trier les comptes qui apparaissent en fonction de leur typologie : journalistes, blogueurs, entreprises, « influenceurs » tout en réorganisant les comptes (ici affichés en fonction du nombre de retweets par articles) par ratio d’abonnés, taux de retweets, etc …

Buzzsumo4

Il est également possible de rechercher des comptes twitter influents sur un sujet ou une thématique donnée, qui seront organisés de la même façon que ceux ayant partagé un lien donné :

Buzzsumo5

Pour analyser plus en détail les liens partagés par les « influenceurs » détectés, vous pouvez cliquer sur le bouton « View Links Shared ». Cela vous permettra d’avoir accès à la liste des liens récents partagés par le compte, ainsi que de faire une analyse des URL et des termes les plus souvent partagés par ce compte twitter.

Buzzsumo6

Pour finir, une fonctionnalité très intéressante de Buzzsumo est la possibilité de faire un export excel ou csv de chacune de vos recherches, dans la limite de 2000 résultats environ. Le fichier obtenu liste tous les articles recherchés avec leurs url, en indiquant le total de partages de chaque article ainsi que les comptes twitter ayant le plus contribués à leur diffusion.

Buzzsumo7

L’article Buzzsumo, pour identifier les articles les plus diffusés sur les réseaux sociaux et les « influenceurs » de twitter est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
3 outils pour trouver la source d’une image https://master-iesc-angers.com/3-outils-pour-trouver-la-source-dune-image/ https://master-iesc-angers.com/3-outils-pour-trouver-la-source-dune-image/#comments Mon, 28 Apr 2014 14:53:26 +0000 http://master-iesc-angers.com/?p=659 Nous allons aborder ici 3 outils qui permettent de trouver la source d’une image. Si certaines personnes s’en servent pour vérifier le droit d’auteur relatif aux photographies, d’autres à l’inverse, traquent les utilisateurs frauduleux de leurs propres images ou photographies.… Continuer la lecture

L’article 3 outils pour trouver la source d’une image est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Nous allons aborder ici 3 outils qui permettent de trouver la source d’une image. Si certaines personnes s’en servent pour vérifier le droit d’auteur relatif aux photographies, d’autres à l’inverse, traquent les utilisateurs frauduleux de leurs propres images ou photographies.

Ces outils peuvent ainsi servir à retracer l’origine d’une photographie (pendant les manifestations par exemple, pour vérifier l’exactitude des images diffusées dans la presse) ou simplement localiser le lieu précis de prise de la photographie (certaines photographies et images contiennent des métadonnées comme l’activation du flash, la date, la longueur de focale ou encore le lieu si l’appareil dispose d’un GPS intégré).

Quelle que soit votre utilisation ou votre problématique, s’il s’agit d’images et de données, ces logiciels sont là pour vous :

TinEye, le moteur de recherche d’images inversé

Le principe de TinEye est assez simple : il permet de rechercher sur le web des images similaires à une photographie en votre possession. Vous pouvez utiliser une URL ou une image stockée sur votre disque dur. Des extensions pour navigateurs (Google Chrome, Mozilla Firefox, Internet Explorer, Safari et Opera) permettent de rechercher les images similaires directement via un clic droit.

Tin_Eye1

L’outil est performant, permet de découvrir les images dites « proches » et celles qui possèdent une résolution plus importante. Bref, c’est un bon service pour retrouver les photos à la source. Par exemple sur le test qui suit avec une image du site Aufeminin.com en résolution 275*183, TinEye a trouvé 18 résultats, dont l’image originale en 506*338 issue de Getty Images.

Tin_Eye2

Google Images et la recherche des photographies

 

Google propose également un outil performant pour effectuer vos recherches d’images. Il fonctionne sur le même principe que TinEye : rendez-vous sur Google Images et cliquez sur le petit appareil photo visible au sein du champ de recherche pour passer de la recherche textuelle à la recherche d’images similaires.

Google_images1

Ensuite, vous avez le choix : vous pouvez importer l’image de votre choix de votre ordinateur, ou utiliser simplement l’adresse Internet de l’image à rechercher. L’outil indique généralement la date de publication des pages qui contiennent les images similaires, vous pouvez ainsi remonter au premier site Internet ayant publié une photo dans la plupart des cas. C’est bien évidemment plus simple avec des photos peu diffusées, mais vous pouvez très bien limiter votre recherche dans le temps, pour rechercher d’anciennes publications en cliquant sur « Outils de recherche », « Date indifférente », puis « Période personnalisée » (sous le champ de recherche).

Néanmoins, avec la même image que pour le test de Tin Eye, l’origine de l’image via Getty Images n’est pas indiquée.

Google_images2

Vérifier les données EXIF d’une photographie

 

Lorsqu’un appareil photo numérique capture une image, il ajoute généralement un certain nombre de métadonnées à cette photo : il s’agit des données EXIF et IPTC. Ces informations concernent la prise de vue : ouverture, activation du flash, date, longueur de focale et les coordonnées GPS si l’appareil en possède un. Si les données liées au photographe et au droit d’auteur ne sont pas ajoutées par défaut, elles peuvent être intégrées lors du traitement de l’image par le photographe. Dans certains cas, vous pouvez donc vérifier ces informations en consultant le détail des propriétés d’une photographie sauvegardée sur votre disque.

Il existe également des outils en ligne pour connaître facilement les données EXIF/IPTC d’une photographie, par exemple l’extension Exif Viewer pour Mozilla Firefox et Google Chrome.

Attention : ces données peuvent être ajoutées et modifiées par n’importe qui. Elles ne constituent donc pas toujours une source fiable pour savoir si une photographie est libre de droits.

Auteur : Guillaume Sylvestre, consultant à l’ADIT

L’article 3 outils pour trouver la source d’une image est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
https://master-iesc-angers.com/3-outils-pour-trouver-la-source-dune-image/feed/ 5