Information Archives - Master Intelligence Economique et Stratégies Compétitives Le Master Intelligence Economique qui combine analyse économique, outils de veille, e-réputation, gestion de crise et big data via une formation sur deux ans. Tue, 16 Mar 2021 15:26:21 +0000 fr-FR hourly 1 La confiance dans les médias à l’heure des NTIC https://master-iesc-angers.com/la-confiance-dans-les-medias-a-lheure-des-ntic/ Tue, 16 Mar 2021 15:26:21 +0000 https://master-iesc-angers.com/?p=3402 Avec le développement des NTIC (Nouvelles Technologie d’Information et de Communication), l’information est devenue plus accessible, la vitesse de sa transmission a considérablement augmenté, parallèlement à cela, le volume d’informations consommées augmentes. Internet a joué un rôle important parmi les médias… Continuer la lecture

L’article La confiance dans les médias à l’heure des NTIC est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Avec le développement des NTIC (Nouvelles Technologie d’Information et de Communication), l’information est devenue plus accessible, la vitesse de sa transmission a considérablement augmenté, parallèlement à cela, le volume d’informations consommées augmentes. Internet a joué un rôle important parmi les médias de masse, ayant depuis longtemps dépassé la radio et la presse écrite en termes de nombre d’utilisateurs. De nombreux médias classiques tels que la presse écrite, la télévision et la radio passent aux formats en ligne. Les réseaux sociaux ont donné lieu à un phénomène tel que les blogs, les blogueurs deviennent des leaders d’opinion dans leur domaine d’intérêt. Désormais, tout le monde peut télécharger des informations au public, raconter des événements économiques et politiques, diffuser sa vision personnelle de ce qui se passe.

Donc, d’une part, nous recevons des informations de la première personne, et d’autre part, une quantité incroyable de bruit d’information. Parallèlement à la croissance des sources d’information, on observe une tendance à une baisse significative du niveau de confiance des citoyens dans les médias. La confiance est un enjeu social important dans le domaine de l’interaction et de la communication des citoyens. Le niveau de confiance, à la fois entre les citoyens et dans l’État, a un impact significatif sur le développement de l’activité économique. Les médias sont des médiateurs dans la communication entre les citoyens et les institutions sociales, ainsi que les représentants des entreprises. Par conséquent, les concepts de fiabilité et d’impartialité des médias sont essentiels dans cette communication. Mais en raison du développement des NTIC, la société est confrontée au problème de la sursaturation de l’information, de l’infobésité, du bruit de l’information et de la désinformation. Donc l’enjeux principal de l’article est:

Comment le développement des NTIC a-t-il influencé la confiance des citoyens dans les médias?

Pour répondre à cette question, nous examinerons les tendances actuelles de la confiance dans les médias dans la première partie; les raisons de l’émergence de la méfiance dans les médias dans la deuxième partie de l’article, et dans la troisième partie nous verrons les indicateurs modernes d’une source d’information fiable.

I. Internet devient le principal canal de diffusion de l’information

En sociologie et en psychologie, la confiance est comprise comme « des relations ouvertes et positives entre les gens, contenant la confiance dans la décence et la bienveillance d’une autre personne avec qui la confiance est dans une relation ou une autre »[1]. Dans des conditions de risque, des situations incertaines et imprévues, le problème de la confiance de la société dans diverses institutions sociales, y compris les médias (mass media), devient important. La mondialisation de l’espace de l’information et les progrès technologiques ont fait des médias un puissant facteur d’influence sur la population. Ils sont capables d’influencer l’opinion publique, d’influencer les attitudes, les valeurs et les attitudes du public. Dans le même temps, les médias sont l’objet principal de la confiance, puisqu’ils font eux-mêmes l’objet de la confiance des publics cibles.

L’une des principales tendances du XXIe siècle est la croissance des sources d’informations numériques, directement liées au développement des nouvelles technologies de l’information et de la communication. De nombreuses publications papier, radio et télévision passent aux formats en ligne. Ce phénomène peut être clairement illustré par l’exemple du nombre de publications et de magazines sur papier d’information. Après avoir atteint un sommet en 2012, le nombre d’éditions papier a commencé à diminuer progressivement et, par conséquent, en 2016, le nombre d’éditions a diminué de 10%. Nous constatons également une baisse de la consommation de papier pour la presse écrite, de 1,4 million de tonnes en 2005 à 695 milliers de tonnes en 2016.

Alors que les médias de la presse écrite diminuent leur diffusion, l’audience Internet des médias d’information augmente rapidement. Les sites d’Actualités et d’Information Généraliste ont vu leur trafic fortement augmenter, malgré des niveaux déjà élevés de fréquentation, + 45 % de visites au mois d’octobre (vs mois moyen 2019) :

Internet devient le principal canal de diffusion de l’information. NTIC a joué ici un rôle important, l’information est devenue un bien public. Les NTIC réduisent les coûts de production, facilitent le transfert des ressources, contribuent à la diffusion d’informations plus pertinentes. Quels ont été les facteurs du succès de la presse en ligne ? Comment la numérisation des médias imprimés a-t-elle affecté la confiance des lecteurs ?

En 2020, selon la recherche de confiance dans les médias réalisés par Kantar pour “La Croix”, l’intérêt des Français pour l’information atteint son plus bas niveau historique. Au cours des 5 dernières années, le nombre de répondants qui suivent l’actualité avec grand intérêt a baissé de 17%. Depuis l’inclusion de la position «Internet» dans la liste des médias permettant de comparer le niveau de confiance des utilisateurs, Internet a pris la dernière place dans le classement:

Cependant, les gens se tournent de plus en plus vers Internet pour s’informer de l’actualité. Depuis 2015, la part d’Internet augmente, tandis que la part des autres médias diminue :

Lorsqu’ils utilisent Internet comme source d’information, beaucoup se tournent vers les sites de presse. Mais nous voyons un phénomène intéressant  : 22% des répondants perçoivent les réseaux sociaux comme le source principale d’informations :

Ainsi, on assiste à une montée en popularité d’Internet, à savoir les réseaux sociaux comme source d’information, et, en même temps, à une augmentation de la méfiance. NTIC a provoqué l’émergence de nouveaux acteurs, contribuant à la diffusion d’informations plus trompeuses. Il s’avère que les utilisateurs ne sont pas satisfaits de la qualité des informations diffusées sur Internet. Les avantages qui ont déclenché la croissance du format en ligne dans la sphère médiatique, tels que la diffusion rapide de l’information, un large choix de sources, ont également provoqué des inconvénients – la faible qualité de l’information, qui a affecté le niveau de confiance dans les médias en général.

II. Les raisons de la méfiance envers les médias

Avec l’expansion mondiale d’Internet, le secteur des médias est devenu beaucoup plus accessible. Il y a des dizaines d’années, les journalistes avaient le monopole de la collecte et de la diffusion de l’information, alors qu’elle est désormais accessible à presque tout le monde. Nous vivons à une époque de journalisme citoyen où tout le monde peut filmer, photographier, écrire, diffuser des informations et atteindre une grande portée. Si les médias classiques adhèrent à certaines règles et codes professionnels du journalisme, les journalistes citoyens peuvent provoquer la diffusion d’informations inexactes, qui à leur tour peuvent être citées par des sources plus fiables. Alors les  fausses nouvelles (fake news) sont nées[2].

Les fausses nouvelles sont la diffusion délibérée de fausses informations sur les médias sociaux et les médias traditionnels dans le but d’induire en erreur, afin d’obtenir un gain financier ou politique. On peut distinguer trois composantes de la fake news: les réseaux sociaux, les technologies de télécommunication et la motivation spécifique. La motivation pour diffuser de fausses nouvelles est le plus souvent associée à une activité politique, à la publicité ou à la concurrence.

Les caractéristiques des médias et le degré de confiance en eux dépendent largement du système politique dans lequel ils opèrent. Comme on le sait, dans les pays à régime autoritaire, les médias sont soumis à un plus grand contrôle et influence des autorités que dans les pays démocratiques. Par exemple, parmi les principales raisons de la méfiance à l’égard des médias dans la Russie moderne: l’utilisation généralisée des technologies manipulatrices; la commercialisation des médias de masse, l’érosion du concept de «fait»; le faible niveau de culture professionnelle et éthique des journalistes, l’immaturité du système d’autorégulation de la communauté journalistique en Russie; le processus de fusion du journalisme et des relations publiques. Enfin, dans des conditions de risques constants, de menaces, de crises, les médias deviennent l’un des puissants facteurs de formation de la «conscience de crise», caractérisée par des humeurs pessimistes, dépressives, imprégnées de sentiments de peur, d’anxiété, d’inquiétude. Un autre exemple célèbre est la diffusion de fausses nouvelles dans la campagne 2016 de Trump.

L’un des types de fake news est l’utilisation de faux titres lorsqu’un titre fort ne correspond pas au contenu de l’article ou exagère délibérément les actions décrites dans l’article. L’utilisation de faux titres est en grande partie due à la forte concurrence entre les médias. En plus de l’influence politique sur les médias, il y a aussi l’influence des entreprises. Les médias gagnent de l’argent en diffusant des informations publicitaires. Malgré l’indication d’un article publicitaire, il crée un bruit d’information et est sans aucun doute biaisé et non objectif. La publicité est très bien acceptée en presse, car intégrée à ce contrat de lecture, faisant partie du plaisir de lecture. Voici un exemple d’expérience personnelle: en travaillant dans le service publicité d’un grand promoteur, nous avons publié des actualités payantes chaque semaine sur le portail-Web de la ville. Le but de ces publications publicitaires est d’alerter le public sur les produits de l’entreprise, d’attirer l’attention du plus grand nombre de lecteurs possible (l’utilisation des faux titres entre en vigueur ici), ainsi que de lutter pour une plus grande présence dans l’espace médiatique par rapport aux concurrents. De telles actions des annonceurs affectent négativement la qualité de l’information, mais les fonds publicitaires la principale source de revenus pour la publication.

La concurrence entre les médias implique l’utilisation de stratégies de marketing, à savoir le ciblage de tel ou tel public. Ainsi, chaque média, par définition, devient biaisé en évoquant des sujets d’intérêt pour son public. Cela contredit déjà certains des principes de neutralité et d’objectivité. Préoccupés par la baisse du niveau de confiance dans les médias en Amérique en 2017, les groupes de recherche Knight Foundation et Gallup ont lancé un projet pour étudier les préjugés des lecteurs envers les médias. La recherche a montré que les lecteurs qui pouvaient voir une source d’information ont un biais plus prononcé qu’un groupe d’examen aveugle (source d’information non disponible). L’interdépendance des opinions politiques et des préjugés médiatiques a également été étudiée : ceux qui ont des opinions politiques plus extrêmes ont tendance à fournir des évaluations plus biaisées des informations. La recherche confirme également que les sources d’information choisies façonnent les perceptions. Les lecteurs qui consomment des informations très biaisées déforment leur cadre de référence. Une interprétation de ces résultats est que certains points de vente créent un biais, peut-être en offrant un contenu de qualité inférieure, bien qu’il soit tout aussi plausible que des consommateurs plus biaisés se tournent vers les mêmes médias[3].

La concurrence, à la fois entre les entreprises publiant des informations, les organisations politiques, et entre les publications elles-mêmes, a un impact important sur la quantité d’information diffusée et sa qualité. De telles actions des acteurs contribuent à la propagation d’un phénomène tel que l’infobésité et surcharge informationnelle. L’humanité a produit au cours des trente dernières années plus d’informations qu’en deux mille ans d’histoire et ce volume d’informations double tous les quatre ans …[4] Ainsi, une personne se trouve dans un espace d’abondance d’informations, dont le traitement devient extrêmement difficile pour le cerveau humain. L’infobésité peut conduire à une pathologie appelée au Japon « hikikomori du savoir » dans laquelle l’internaute « s’engouffre dans des labyrinthes documentaires toujours plus spécialisés. » [5] Ainsi, l’objectif de la communauté Internet, et en particulier des médias, est d’attirer l’attention de l’utilisateur et de la maintenir sur Internet le plus longtemps possible. La rétention du lecteur devient l’un des principaux objectifs des médias Internet: le lecteur est chargé de liens croisés, de pop-ups, de mailings Internet, des alertes etc. Toutes ces informations génèrent du bruit documentaire et leur traitement va occasionner une perte de temps et une dispersion de l’attention. Ainsi, une personne n’est plus en mesure de percevoir et d’évaluer de manière critique les événements décrits.

L’influence des NTIC a provoqué l’émergence d’un cercle vicieux dans lequel les médias, la société et les institutions sociales sont codépendants. Chacun des participants dispose d’un grand nombre d’outils d’influence. Mais si nous identifions la société comme autorité prioritaire et examinons le problème de la confiance dans les médias à travers les yeux du lecteur, nous pouvons alors tirer des conclusions sur la sursaturation globale de l’information. En conséquence, le lecteur a besoin d’être fournis en informations de meilleure qualité et en moindre quantité. Les consommateurs exigent des informations plus analytiques, une approche plus approfondie et plus professionnelle dans le domaine des medias.

III. Les indicateurs de confiance

La recherche montre que les principales caractéristiques des médias qui peuvent inspirer la crédibilité sont la véracité, l’honnêteté, l’intégrité, l’impartialité et la transparence. Mais toutes ces caractéristiques sont des facteurs plus subjectifs qu’objectifs. Sans une analyse multiforme des faits, de la source d’information, de l’auteur, des commentaires, etc., il est difficile pour le lecteur moyen à première vue de déterminer la fiabilité et l’impartialité d’un article.  Les facteurs subjectifs d’évaluation de la fiabilité des informations comprennent des indicateurs de l’expertise personnelle du lecteur. Les facteurs objectifs pour évaluer la crédibilité sont les classements indépendantes des médias.

On peut distinguer deux niveaux d’expertise personnelle sur la crédibilité des medias – la confiance dans la source de l’information et la confiance dans le message lui-même – par exemple, la qualité, l’exactitude ou la pertinence de l’information. La crédibilité de la source fait référence au niveau de crédibilité perçu que les utilisateurs individuels ont d’un support spécifique. La crédibilité du message fait référence à la crédibilité perçue du message communiqué lui-même, comme la qualité de l’information, son exactitude ou son actualité. Les informations sur différentes plates-formes ont différents critères d’évaluation de crédibilité de la source. Wathen et Burkell ont résumé certaines variables de la crédibilité de la source dans le contexte des médias traditionnels et des sites Web. Les recherches suggèrent que les aspects de surface de la présentation sont pertinents pour l’évaluation de la crédibilité du support, par exemple, les nouvelles fonctionnalités des sites Web, telles que la conception de l’interface des sites Web. Mais si nous parlons de la conception de pages Médias sur les réseaux sociaux, cela passe à l’arrière-plan, car les utilisateurs ont une interface unifiée

La crédibilité de la source comprend des facteurs tels que l’interactivité, la dépendance à la source et la transparence de la source. La transparence des médias peut être comprise comme la capacité de connaître les conditions de production d’informations, par exemple des informations sur l’auteur, des sources d’informations, comment la collecte d’informations pour un article particulier a été organisée, etc. La dépendance à la source suggère que les médias ont des capacités pour satisfaire les besoins du public. Ainsi, le lecteur choisit une source d’informations correspondant à ses intérêts, et, en conséquence, est enclin à une plus grande confiance en cette source[6].

L’interactivité peut jouer une blague cruelle aux internautes. Les algorithmes de médias sociaux sélectionnent les actualités en fonction des intérêts des utilisateurs. Ainsi, au lieu de choisir une source d’information fiable (acheter un magazine, activer une chaîne d’information à la télévision), les utilisateurs accèdent au fil d’actualité et voient des informations sélectionnées algométriquement. Ainsi, nos propres goûts et commentaires augmentent la popularité de l’article, dont la fiabilité n’a pas été déterminée par les professionnels[7].

 La crédibilité du message est déterminée par la force de l’argumentation et la qualité de l’information. La force de l’argument est définie comme la mesure dans laquelle un récepteur de message considère que cet argument est convaincant ou valable pour soutenir sa position. La force de l’argument peut être évaluée par l’exhaustivité et la logique du message. La qualité de l’information concerne l’aptitude à utiliser les informations fournies. La qualité de l’information comprend également l’exactitude, la pertinence, l’objectivité et le style de présentation[8].

Depuis l’années dernières, de nombreux professionnels de l’information se posent des questions sur la crédibilité des médias. Des startups se sont développées, dont le but est d’évaluer la crédibilité des médias pour avoir le jugement objectif. Un de ces projets est le Trust Project. Afin de restaurer le rôle prioritaire de la presse au service du bien public, les participants au projet ont élaboré 8 indicateurs de confiance, qui sont présentés sur des centaines de sites d’information. Il s’agit de « la première norme de transparence mondiale » qui aide les gens à savoir qui et ce qui se cache derrière un reportage: des politiques pour garantir l’honnêteté, la précision et l’équité, des engagements à reconnaître les erreurs, des détails sur la propriété, des informations sur l’expertise d’un journaliste, etc. Les indicateurs de confiance impliquent la fourniture d’informations complètes sur l’article et les incluent tels que des informations sur l’auteur de l’article (son expérience et son professionnalisme, sa formation), des informations ouvertes sur les sources, le but de la rédaction de l’article (revue de presse ou publicité), la prise en compte des opinions de différentes personnes dans l’article, la capacité de commenter l’article, le processus et la méthodologie de rédaction d’un article, etc.[9]

Une autre startup de haut niveau sur la valorisation des médias est NewsGuard. En 2019, la startup NewsGuard a conclu un accord avec Microsoft pour intégrer les cotes de fiabilité des principaux organes de presse en ligne dans le navigateur Edge. Le logiciel NewsGuard montrera le type de source d’informations:

  • Vert – Un site Web est identifié en vert s’il adhère généralement aux normes de base de crédibilité et de transparence ;
  • Rouge – Un site Web est identifié en rouge lorsqu’il n’adhère généralement pas aux normes de base de crédibilité et de transparence ;
  • Satire : Un site humoristique ou satirique reçoit la notation satire, ce qui indique qu’il ne s’agit pas d’un site Web d’information à proprement parler ;
  • Plate-forme :Un site reçoit la notation plate-forme s’il héberge du contenu principalement généré par ses utilisateurs, qui n’est pas vérifié[10].

Contrairement à la notation d’un Trust Project, une startup NewsGuard ajoute un indicateur de la différence entre les informations et les opinions, évaluant la différence entre l’opinion de l’auteur et les informations étayées par des arguments et des faits. Une autre nouveauté est l’analyse des titres trompeur  qui incluent des informations mensongères, qui font du sensationnalisme ou encore, qui ne reflètent pas le contenu réel de l’histoire.

Après avoir considéré les indicateurs de la fiabilité des médias, on observe une tendance à l’émergence d’institutions d’évaluation de la crédibilité des médias. Des géants tels que Microsoft mettent en œuvre des systèmes d’évaluation des source d’informations. Les associations de journalistes professionnels participent également au développement des cotes de crédibilité des médias. La réalisation est la compréhension même du problème et les tentatives d’améliorer la situation. Ainsi, il reste à espérer la création d’un système d’information favorable dans lequel les médias deviendront plus responsables de l’information diffusée, et le lecteur apprendra à choisir des sources d’information fiables, entre différents bruits d’information.

Conclusion

Après avoir examiné le concept de confiance, les tendances modernes de la confiance des médias, les indicateurs et les raisons de la méfiance, on constate que les NTIC ont un impact énorme sur la quantité et la qualité des informations diffusées. Le marché des médias subit de grands changements: le passage à l’internet, la croissance du volume d’information diffusée et l’augmentation de sa disponibilité, l’émergence de nouveaux acteurs comme les journalistes citoyens. Tout cela a un effet contradictoire sur le lecteur.

D’une part, le lecteur a accès à une vaste sélection de sources d’informations et, d’autre part, la quantité de contenu de mauvaise qualité et le bruit des informations augmentent. Le lecteur souffre d’une sursaturation de l’information, il devient de plus en plus difficile d’évaluer l’autorité de la source et la crédibilité du message, ce qui impacte la confiance dans les médias. Une tendance positive est la compréhension par la communauté professionnelle du problème de la confiance des lecteurs. Ainsi, des notations de la crédibilité des médias sont créées, des applications dont le but est d’évaluer la fiabilité de la source d’information. Aujourd’hui, les communautés de journalisme professionnel et les entreprises numériques comme Microsoft jouent un rôle central dans ce processus. Mais avec l’apparition des notations, à son tour, la question de leur compétence et independence se posera, comme ce fut le cas avec la notation médiatique Nuzzel. Ainsi, une nouvelle question se pose concernant la participation de l’Etat à la régulation et au contrôle de la diffusion de l’information. L’État peut-il assurer une régulation équitable de ce domaine, assurer la transparence et l’objectivité des médias, s’il est lui-même l’une des parties intéressées dans le domaine de l’influence sur la conscience des lecteurs?  Jusqu’à présent, l’État peut garantir la liberté de parole et d’expression, qui est activement utilisée par la communauté Internet, générant un volume croissant de bruit d’information, abaissant l’autorité de la profession de journaliste et la fiabilité des médias. Le lecteur, à son tour, exige une approche plus transparente de la production d’information, un contenu plus analytique et une approche responsable, qui ne peuvent être fournies que par des professionnels des médias. Ainsi, accroître la confiance dans les médias devient la tâche principale de la communauté professionnelle des journalistes.

Par Alissa Zhukova, promotion 2020-2021 du M2 IESCI

Bibliographie

  • Enquête « La confiance des Français dans les media », Kantar, 2020 ;
  • Statistique « Séries longues de la presse éditeur de 1985 à 2018 (provisoire) », Ministère de la culture de la France https://www.culture.gouv.fr/Sites-thematiques/Presse/Documentation/Chiffres-Statistiques ;
  • L’Alliance pour les Chiffres de la Presse et des Médias (ACPM), « Classement ACPM / OJD des Sites Fixes et Mobiles Grand Public Octobre 2020 », 2020 ; https://www.acpm.fr/Actualites/Les-publications/Communiques-des-Sites-et-Applications/ACPM-Classements-Numeriques-OJD-octobre-2020 ;
  • Le baromètre de la confiance politique « En qu(o)i les Français ont-ils confiance aujourd’hui ? » , CEVIPOF, Février 2020 ;
  • Ruohan Lia, Ayoung Suh «Factors Influencing Information credibility on Social Media Platforms: Evidence from Facebook Pages», Procedia Computer Science 72  ( 2015 )  314 – 328
  • Florian Dauphin « Les Fake News au prisme des théories sur les rumeurs et la propagande », Études de communication2019/2 (n° 53), pages 15 à 32 ;
  • Will Oremus «Classer les titres de presse selon leur fiabilité, la nouvelle ruée vers l’or», http://www.slate.fr/story/173091/fake-news-entreprises-business-credibilite-medias
  • Tatiana Rassadina « Confiance de masse médias dans la « société du risque », actes des établissements d’enseignement supérieur, région de la Volga, Sciences sociales. – 2012. – N ° 1 (21). – S. 61–70 ;
  • Karpova M. K., Balabanova U. G., “ The problem of distrust of society to media “, electronic scientific journal «Science. Society. State», 2017, vol. 5, no. 2, available at: http://esj.pnzgu.ru (In Russian) ;
  • Timothy E. Cook, Williams College Paul Gronke, Reed College “ The Dimensions of Institutional Trust: How Distinct is Public Confidence in the Media? ”, Midwest Political Science Association, Chicago, April 2001 ;
  • Marie Reibel, Nadine Desrochers « Société de l’information et infobésité : perceptions et représentations croisées » , Documentation et bibliothèques, volume 60, numéro 1, Janvier–Mars 2014, p. 31–46 https://www.erudit.org/fr/revues/documentation/2014-v60-n1-documentation01194/1022860ar/
  • Caroline Sauvajol-Rialland « La surcharge informationnelle dans l’organisation : les cadres au bord de la « crise de nerf » », Magazine de la communication de crise et sensible, vol. 19,‎ juillet 2010, p. 22.
  • Ariadna Fernandez-Planells “Factors influencing trust in media : exploring the association between media consumption and news about the 15M Movement”, Hipertext.net [Online], 2015, Núm.     13 http://raco.cat/index.php/Hipertext/article/view/294100/389433
  • Learn the 8 Trust Indicators https://thetrustproject.org/trusted-journalism/
  • Jonathan Rothwell “Biased News Media or Biased Readers? An Experiment on Trust” , Page 2 of the New York edition with the headline: Sometimes the News Media Is Biased. Sometimes It’s the Reader, Sept. 27, 2018 ;
  • Aron et C. Petit, « L’info, nerf de la guerre », Le Monde informatique, n° 731, 29 août 1997 ;
  • Caroline Sauvajol-Rialland, « La surcharge informationnelle dans l’organisation : les cadres au bord de la « crise de nerf » », Magazine de la communication de crise et sensible, vol. 19,‎ juillet 2010, p. 22.

[1] Tatiana Rassadina « Confiance de masse médias dans la « société du risque »

[2] Florian Dauphin « Les Fake News au prisme des théories sur les rumeurs et la propagande »

[3] Jonathan Rothwell “Biased News Media or Biased Readers? An Experiment on Trust

[4] P. Aron et C. Petit, « L’info, nerf de la guerre », Le Monde informatique, n° 731, 29 août 1997.

[5] Caroline Sauvajol-Rialland, « La surcharge informationnelle dans l’organisation : les cadres au bord de la « crise de nerf » », Magazine de la communication de crise et sensible, vol. 19,‎ juillet 2010, p. 22.

[6] Ruohan Lia, Ayoung Suh «Factors Influencing Information credibility on Social Media Platforms: Evidence from Facebook Pages»

[7] Will Oremus «Classer les titres de presse selon leur fiabilité, la nouvelle ruée vers l’or»

[9] https://thetrustproject.org/trusted-journalism/

[10] https://www.newsguardtech.com/fr/notations/processus-de-notation-et-criteres/#crit%C3%88re-de-notation

L’article La confiance dans les médias à l’heure des NTIC est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
De la gestion de l’information … à l’intelligence compétitive https://master-iesc-angers.com/de-la-gestion-de-linformation-a-lintelligence-competitive/ Fri, 09 Mar 2018 10:09:11 +0000 https://master-iesc-angers.com/?p=2730 De toutes les révolutions industrielles du vingtième siècle qui ont influencé le  monde de l’entreprise, les technologies de l’information et de la communication sont parmi celles qui ont provoqué le plus de bouleversements. Les promesses de ces techniques laissaient croire… Continuer la lecture

L’article De la gestion de l’information … à l’intelligence compétitive est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
De toutes les révolutions industrielles du vingtième siècle qui ont influencé le  monde de l’entreprise, les technologies de l’information et de la communication sont parmi celles qui ont provoqué le plus de bouleversements. Les promesses de ces techniques laissaient croire en un véritable changement du monde. Nous vivons actuellement dans un monde complexe avec une quantité d’informations à traiter qui augmente de façon phénoménale. Ce qui fait que l’entreprise  doit  s’ouvrir  sur  son  environnement,  regarder  le  monde  en  permanence,  adopter  une  structure  souple  qui  lui  permettra  d’être  mobile  et  de  devancer  la  concurrence. Bien  que  l’information  soit  au  centre  du  concept  de  l’intelligence  Compétitive,  cette  dernière couvre des objectifs plus larges que le simple rassemblement de l’information. D’abord essayons de comprendre ce qu’est l’information, ensuite la manière dont elle doit être gérée et enfin son utilisation par  les entreprises pour rester compétitive.

1. Qu’est-ce que l’information ?

L’information connaît actuellement de profondes mutations dues à un apport des nouvelles techniques et à une modification de son rôle économique et stratégique qui tendent à transformer autant sa nature que son utilisation. Il existe plusieurs définitions de l’information selon son type, son domaine, son point de vue… Elle peut être définie comme «un renseignement obtenu de quelqu’un sur quelqu’un ou sur quelque chose, ou une nouvelle communiquée par une agence de presse, un journal, la radio, la télévision».

On qualifie d’information toute donnée pertinente que le système nerveux central est capable d’interpréter pour se construire une représentation du monde et interagir correctement avec lui. L’information, dans ce sens, est basée sur des stimuli sensoriels véhiculés par les nerfs. D’après G. B. DAVIS, « l’information représente les données transformées sous forme significative pour la personne qui les reçoit; elle a une valeur réelle (ou perçue) pour ses décisions et pour ses actions futures. » De cette manière, la valeur de l’information est liée aux décisions qu’elle permettra de prendre. Dans ce cas, les données constituent la matière première alors que l’information représente un  produit davantage fini mais sans être tout à fait complet à lui-même. Ces informations peuvent être de plusieurs types : scientifiques, technologique, commerciale, juridique, financière, stratégique, personnelle. Elle peut être classée en trois catégories selon le degré de protection de la source. Elle peut se décliner selon trois types :

             –   Blanche : c’est l’information directement et librement accessible (rapports annuels, articles de presse, documents commerciaux, …). Elle représente  80% des informations disponibles sur le web. Cette information est dans la plupart des cas non protégée avec une acquisition et une exploitation légale sous réserve de respect des droits de propriété intellectuelle.

             – Grise : c’est l’information licitement accessible, mais caractérisée par des difficultés dans la connaissance de son existence ou de son accès. Celle que l’on peut acquérir de manière (informelle, par le réseau, le bouche à oreille, … Elle représente environ 15% de l’information disponible sur le web. Son acquisition et exploitation relèvent du domaine juridique non clairement défini avec des risques d’ordre jurisprudentiel.

              – Noire : c’est l’information à diffusion restreinte et dont l’accès ou l’usage  est explicitement protégé. Elle représente environ 5% de l’information disponible sur le web, inaccessible légalement. Son acquisition relève de l’espionnage avec des risques très élevés.

2. Les différents niveaux de gestion de l’information

L’information correspond aux différents niveaux de la décision. Tout décideur veut l’utiliser pour mener des actions car elle aide dans le choix de la prise de décision. C’est pourquoi son intégration au sein de l’entreprise fait l’objet d’une sérieuse analyse par un groupe de personnes. Le choix doit être stratégique et non gratuit. Selon Henri DOU, trois niveaux se dégagent suivant le type d’information géré: opérationnel, tactique et stratégique. Le type de données manipulées, leur volume, les traitements qu’elles subissent, la globalité selon laquelle elles sont appréhendées, diffèrent d’un niveau à un autre.

 « L’information opérationnelle et de terrain : c’est une information très ciblée, précise, de faible volume. Elle concerne directement ceux qui au niveau de la recherche et de la production doivent faire avancer un travail précis : synthèse d’un nouveau produit, choix d’un composant électronique, connaissance d’une norme, etc. L’information opérationnelle dont le système d’information documentaire (S.I.D.) est le principal fournisseur, subit très peu de traitements et de fait est relativement brute. Les utilisateurs de cette information sont principalement des opérationnels à savoir techniciens, ingénieurs, chercheurs, etc.

L’information tactique concerne un volume plus grand de données souvent avec des contours moins précis. Elle doit faire l’objet d’une analyse statistique en associant des experts. En fait, elle va permettre de situer ce qui est ou qui doit être entrepris par rapport à l’ensemble global des connaissances, des productions scientifiques du moment, des laboratoires et des entreprises. On fournira par ce biais des indicateurs sur les forces et les faiblesses présentes. Celle-ci aura un  intérêt pour ceux qui doivent gérer des projets, les développer, mettre en place de nouvelles directions de recherche et de développement. En bref, les renseignements issus de l’analyse des informations techniques ou scientifiques seront inclus dans la stratégie de développement technologique de l’entreprise.

L’information à caractère stratégique ne concerne pas directement une entreprise (sauf de grandes multinationales). Elle est de plus grandes ampleurs que celles précédemment citées donneront des indications globalisantes et de grandes tendances. Elles concerneront les très grands ensembles, les pays (par exemple connaître pour un pays donné les déposants en brevets dans certaines classes…). »

3. Du développement de la société de l’information…

L’évolution de la société de l’information fait que les rapports dématérialisés anéantissent les frontières et dissimulent les rapports de hiérarchie. Les progrès techniques ont permis que l’information puisse être délivrée à un nombre croissant de personnes, en un minimum de temps, et dans un espace de plus en plus large. Ces évolutions ont favorisé l’explosion de l’offre et principalement de la demande en information, essentielle à toute activité de l’homme, autant pour son adaptation à son environnement que pour la prise de décision. Du côté de l’offre, on observe « une augmentation quantitative de l’information  sous différentes formes, notamment par l’intermédiaire d’Internet, de la téléphonie mobile et du multimédia avec une extension à  tous  les  domaines  du  savoir»[2]. Alors que du point de vue de la demande, la mise en avant de « l’information  comme matière première » a impliqué la nécessité de faire face à cet accroissement par la spécialisation des connaissances.  En réponse à cette demande, de nouveaux outils, échanges de connaissances, techniques, modes de partages, et surtout de nouvelles méthodologies de recherches et traitement de l’information, ont été développés afin de permettre :

  • L’acquisition à court terme et dans les délais de plus en plus brefs de documents pertinents, contenant de l’information à très haute valeur ajoutée, indispensables à la clarification d’une situation ou à la prise de décision ;
  • la capitalisation à long terme et la mobilisation à tout moment des connaissances afin de permettre l’optimisation de cette acquisition ;
  • la protection et la mémorisation des informations issues de cette situation ou de cette prise de décision en vue d’éventuelles réutilisations futures ; de plus, les usages d’Internet et la politique de développement des autoroutes de l’information. ?

L’information constitue alors la matière première stratégique des entreprises, elle permet d’accroître la maîtrise de l’environnement et de réduire l’incertitude dans la prise de décision. Cette incertitude provient d’abord de la mondialisation qui impose une approche globale des marchés, et nécessite une gestion plus efficace des informations pour détecter les opportunités commerciales et les menaces concurrentielles.

4… A l’apparition de l’intelligence compétitive

De nos jours le besoin de s’informer, de surveiller ou de se défendre, de se comparer aux autres c’est-à-dire  avoir  le  pouvoir  de discerner, de mesurer et d’évaluer est essentiel pour entreprendre toute activité. La société de l’information a fait évoluer les pratiques professionnelles d’intelligence économique en entreprise. La politique de développement des autoroutes de l’information et les usages de l’internet ont influé les comportements de communication. Étant au cœur de nombreux débats, la société de l’information a changé la place de l’entreprise dans le paysage social et a renforcé la complexité de l’environnement. On constate que la  diversification des marchés a incité à une compétitivité accrue des entreprises. Ces dernières doivent dans cet environnement déséquilibré, accroître :

– leurs facultés d’observation et d’analyse de l’environnement pour détecter les  nouvelles opportunités et contrer les menaces  inattendues : c’est-à-dire veillées à être bien informée ;

– leur capacités d’adaptation pour répondre aux changements et aux nouvelles  contraintes de l’environnement : c’est aussi favoriser le développement durable ; leurs aptitudes réactives pour être capable de redéfinir rapidement et de manière efficiente, ses grandes orientations stratégiques : c’est se lancer dans l’innovation permanente ;

 – leurs idées nouvelles pour développer l’innovation et être compétitive : c’est développer la créativité. Ces raisons sont souvent des éléments déclencheurs permettant à une entreprise d’envisager des transferts de technologies, d’innover par la captation de nouveautés intégrables dans ses processus, de séduire les consommateurs qui se sentent plus à l’écoute par une identification de leurs attentes amont (Persechini & Forrester, 2010), de faire basculer des financements par la présentation de signaux palpables car «Faire de l’intelligence économique, c’est avant tout faire de l’économie intelligente» (Chaduteau, 2003).

C’est sur ses capacités à veiller, à s’adapter, à innover et à se développer durablement, que se fonde l’intelligence compétitive. Mais si l’intelligence Compétitive permet d’élaborer des stratégies proactives sur un environnement, un marché ou un concurrent (Chouk, 2010), elle peut aussi s’appliquer à des États et des régions.

Cela amène à des déclinaisons du concept comme «l’intelligence Territoriale» avec la prise en compte de spécificités comme l’importance du partenariat, ou la captation de subventions …Par la veille et la remise en question permanente qu’elle s’impose l’intelligence compétitive a vocation à évoluer avec les connaissances et les techniques. La veille technologique s’inscrit dans une démarche éminemment stratégique, puisque la recherche d’informations doit déboucher sur une prise de décision. Le mot « compétitif » devant  être entendu dans le sens d’une recherche d’amélioration permanente, dans ce qui  est entreprit au profit de valeurs humanistes éloignées des ambiguïtés entretenues  auparavant avec le traitement de l’information noire. La nouveauté du concept d’intelligence compétitive est la prise de conscience que l’entreprise possède des connaissances et des savoir-faire (et notamment des « savoir collaborer ») pour résoudre des problèmes décisionnels. Avec une information qui circule plus vite et plus facilement grâce aux avancées technologiques permanentes (réseaux téléphoniques, fibres optiques, WIFI, GPRS, UMTS….) et à la multiplication des capacités de stockage, de traitement et de manipulation, l’entreprise doit être plus regardante sur son environnement.

Conclusion

L’évolution de la société d’information est en corrélation avec l’intelligence compétitive. Cette dernière trouve son champ d’intervention élargi par les nouveaux outils dans la mesure où la compétitivité est recherchée dans l’ensemble des secteurs d’activités sociales. Elle a vocation à saisir des champs de connaissances et de culture inaccessibles jusqu’à aujourd’hui. L’apprentissage de ses nouvelles possibilités et des nouveaux modes de fonctionnement de notre société est un phénomène complexe, entre autres, car il dépasse les capacités d’actualisation des enseignants comme des professionnels. Cette dernière évolution légitime donc un peu plus la nécessité impérieuse et l’actualité des problématiques qu’elle a vocation à aborder.

Par Khady Diagne, promotion 2017-2018 du M2 IESCI d’Angers

[1] DOU, H., Veille technologique et compétitivité, Paris: DUNOD, 1995, 234p

[2] Théry et al. [THE 94]

L’article De la gestion de l’information … à l’intelligence compétitive est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Towards a knowledge economy https://master-iesc-angers.com/towards-a-knowledge-economy/ Mon, 12 Feb 2018 12:17:28 +0000 http://master-iesc-angers.com/?p=2665 In the last quarter century, after the end of the Second World War, developed countries entered a new phase of development and scientific and technological knowledge. The rate of knowledge creation and dissemination has increased significantly due to the rapid… Continuer la lecture

L’article Towards a knowledge economy est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
In the last quarter century, after the end of the Second World War, developed countries entered a new phase of development and scientific and technological knowledge.
The rate of knowledge creation and dissemination has increased significantly due to the rapid progress in ICT, which has declined significantly, especially the costs of computing and electronic networks. With increased affordability and the use of computing power and electronic networks, their frequency has increased with the efficiency and quality of knowledge, rapid progress in R & D, new knowledge and technology.

This progress has emerged in the form of a range of innovations. These scientific and technological evolutions may result in huge economic returns that cannot be hidden and have resulted in economic changes that have led to the emergence of various economic forces, all trying to move the economy towards its goals and interests, as well as the so-called phenomenon of globalization.

Knowledge is the engine of productivity and economic growth, it focuses on the role of information and technology, and it teaches how economic performance is. This increased speed in the creation and dissemination of knowledge has led to the rapid spread of modern technology and efficient production, as well as the increased probability of leaps that have led to increased competition at the global level.

The success of the transition to the knowledge economy usually involves elements such as long-term investment in education and knowledge, the development of innovation capacity, the modernization of IT infrastructure and the creation of an enabling economic environment for market transactions. The World Bank has designated these elements as the pillars of the knowledge economy formed within the framework of the knowledge economy.

Transition to a knowledge economy requires long-term strategies that include the understanding of strengths and weaknesses and the combined work of the different society actors to develop policies and investments that are appropriate to trends and objectives. What distinguishes the knowledge economy is the emergence of Knowledge Based Organizations (KBOs) that occupy knowledge makers.
The knowledge economy should be viewed from various aspects.  First by the speed of technological development, especially the development of technologies that generate the knowledge economy, such as information and communications technology. Secondly, from the economic side, where all agricultural, industrial and administrative areas have become knowledge-intensive; Access to knowledge is a necessity for all social groups and leads to the development of human capital through the provision of continuous education for all.

The knowledge economy requires greater efforts in the areas of education and training and requires a new kind of education and training. The number of information workers is steadily increasing, and this requires the formation of scientists and workers in this field and in the fields of information technology. Information technology illiteracy has become a hindrance to progress.

The development of rapid knowledge requires lifelong training, a higher level of scientific and technological employment than before, and the need to acquire a better education has become urgent for workers. Higher wages will be directed towards workers who are able to deal with encoded information and technological knowledge rather than manual labor or physical effort.

Concept and characteristics of the knowledge economy

The concept of knowledge economy or the new global economy is a nascent concept, but it has emerged and developed rapidly and it refers to the working environment where intangible assets exceed material assets in their value and importance. In this economy, knowledge is the focus of work, not just a tool. The product life cycle is short. Numerous labels have been used to denote the knowledge economy such as the information economy, the internet economy, the digital economy….

Several definitions of the knowledge economy have been presented. It is also known as an economy that is based on the production of knowledge and the use of its results and its fruits constitute an essential part of the wealth of the developed society and its social welfare. It is also considered as a branch of the basic sciences that aims to improve the well-being of individuals, organizations and society by studying production systems and designing knowledge and then carrying out the implementation of interventions necessary to develop these systems. As a modern economy, imposing a new spectrum of activities related to knowledge, technology, information, and the most important features of Internet transactions.

Hence, the knowledge economy can be considered as the economy that revolves around acquiring, participating in, using, employing and innovating knowledge in order to improve the quality of life in all its fields through the use of a rich information service and advanced technological applications.

Characteristics of the knowledge economy:

One of the most prominent characteristics of the knowledge economy:

  • Knowledge is the main factor in production.
  • Focusing on the intangible, such as ideas and trademarks, rather than machinery and financial assets.
  • It is networked through the evolution of new communication methods.
  • It is digital, and this has a huge impact on volume, storage and processing information.
  • It is a virtual reality where virtualization became a reality with digitization and networks – the Internet.
  • Diminishing time constraints and low cost with the development of new technology – the Internet.
  • New electronic markets are characterized by rapid flow of information on products, especially prices.
  • The free flow of information through the Internet may also create greater awareness of ethical issues among individuals and institutions.

Importance of the Knowledge Economy:

The knowledge economy is a new economy of a special nature that derives its uniqueness not only from the considerations of the present or the past, but also from the specificity of its role in the future and from the motivations for development and innovation. It is growing at a rapid rate and surpassing all other economies in an unprecedented manner both concrete and intangible.

The importance of the knowledge economy has grown and has been confirmed by the clear role of knowledge in determining the nature of the economy and its activities. By identifying the means, methods and techniques used in these activities, in their expansion, in their production, in the needs and services provided.  And thus in the extent of the benefits to individuals and society, and to achieve the economy development and growth, and increased the justification for the transition to the knowledge economy and increase the importance is the rapid growth of knowledge, the emergence of new branches of science, as well as the emergence of new technology and products.

Its main benefits can be presented as follows:

  • The scientific knowledge contained in the knowledge economy is the basis for wealth generation and accumulation.
  • To contribute to improving performance, raising productivity and reducing the cost of production, and improving its quality through the use of advanced technical means and methods, especially in the industrial fields, which highlight the industries of precision electronic devices and equipment and computers and software.
  • Contribute to the generation of jobs in the areas that are using the advanced technologies included in the knowledge economy and generate employment opportunities that are constantly expanding for employees with specialized scientific skills and abilities.
  • Contribution of the contents of the knowledge economy and its data and techniques in providing the necessary basis for stimulating the expansion of investment, especially investment in scientific and practical knowledge in order to create knowledge capital that contributes to the production of knowledge.
  • The contribution of the knowledge economy to achieve clear and tangible structural changes in the economy. Such as the relative importance of knowledge, production and increased investment in knowledge to increase knowledge capital and to increase the relative importance of workers in the fields of knowledge associated with the use of advanced technologies and to increase the importance of exports of knowledge products.

Factors contributing to the emergence of the knowledge economy:

Many factors have contributed to the emergence and the development of the knowledge economy, among these factors:

  • The development of the third sector, service and intangible activities and the increase of their contribution in the economic outputs.
  • Technological development: especially information and communication technology (ICT), biotechnology, etc., which constitutes what is called the new economy.
  • The evolution of the concept and applications of the economic intelligence, the clusters, as well as the relations of exchange and partnership among many economic agents.
  • The phenomenon of globalization, which has reduced the physical labor wages in exchange of an increase in the level of intellectual work.

Measuring the knowledge economy:

Knowledge and other components of the knowledge economy have been difficult to measure. The World Bank has developed a knowledge economy methodology called the Knowledge Assessment Method (KAM) and the Knowledge Economy Index (KEI), known through a set of indicators. It consists of four pillars or key indicators (organizational performance, innovation, human resource management, information technology), each of which contains a set of sub-variables.

1.    Organizational performance

The concept of performance has always been a subject of studies and researches because of its importance, which imposed the need to focus on the introduction of alternative concepts to it and the attempt of researchers to accurately identify and study the factors affecting it. Most modern and old organizations focused on performance, the success of any organization is measured by its performance.

Organizational performance is the factor that evaluates and measure the ability to contribute to the achievement of the objectives of the company. It is referred to as the ability of the organization to achieve its objectives by using available resources in efficient and effective methods.

Organizational performance is defined by focusing on maximizing the profitability of the organization, which is the narrow concept of organizational performance. It is the main factor to determine and achieve the objectives of financial performance and is used to measure financial indicators such as return on investment.

Organizational performance is one of the methods by which an organization can identify and evaluate its various internal activities, identify its strengths and weaknesses, and evaluate its performances in comparison with the performance of other competing organizations that carry out similar or similar activities in the same industry. Market share, cost reduction, profitability, customer satisfaction are common metrics for measuring organizational performance.

2.    Innovation

It is a set of quantitative and behavioral variables such as hopes, aspirations, previous experience, need, self-capacity and other variables in organizations. It is also seen as a collective organizational process that aims to ensure new changes to the organization. These changes are new inputs to the organization (invention and ideas) and / or motivating workers to make proposals for change.

Innovation is a process that involves looking at things and problems with a new and unusual perspective.it is the use of unconventional thinking to present new and innovative ideas in which the individual interacts, investigates, and connects things, leading to the production of something new, original and valuable to society.

3.    Human Resource Management

The human element occupies the fundamental importance of any evolution in the world in all ages and times. Human development is the centerpiece of all developments that the human society has been able to achieve in various fields. The recent technological developments in the field of information and communications systems and technology and the requirements of globalization, free trade, total quality and sustainable development constitute stations of great importance in the context of the development of the present century. Without human development and human resources, these stations would not have achieved their development prospects and means of success, based on the importance of information and its distinctive role in our contemporary lives.

Human resources management is a management that has strategic and operational functions to fulfill economic, legal, social and ethical responsibilities represented by advisory and executive roles to achieve the use of human resources efficiently and effectively through a harmony and complementarity of the interests of individuals, organization and society together.

4.    Information Technology

Information technology, with its advanced tools, is of great importance in today’s world. This concept has flourished in all fields, professions and disciplines. Nothing has affected human life since the Industrial Revolution, as did information technology. It has become indispensable in the lives of peoples. Organizations invest their funds in information technology in order to provide information with high quality characteristics such as accuracy, speed, relevance, comprehensiveness and reliability that support the decision-making process management.

Other Indicators of knowledge economy In order to understand the possibilities for countries joining this new economy, which is based largely on the knowledge revolution, some indicators must be addressed:

  • R & D Indicator:

Research and development data form the core indicators of the knowledge economy. Two basic indicators are used: R & D expenditures and staff. This research has been used to collect data allowing a dynamic analysis and international comparisons.

  • Education and Training Indicator:

Indicators based on education and training data allow the assessment of knowledge and skills (or human capital) gained through the formal process of education. These indicators also allow inventory valuation and investment in human capital. Education statistics are compiled on an international basis by the Organization for Economic Co-operation and Development (OECD), UNESCO and the European Community, and are usually available over the years. This indicator is highly important because it has a significant impact on the revolution of methodology and knowledge in terms of increasing the proportion of specialists in the different knowledge fields. Thus increasing the productivity. The education and training indicator also allows the supply of stock and investment in human capital.

  • Change in the structure of exports:

The exports of the developed countries, the developing countries and the least developed countries are made up of material goods. Today, exports from developed countries depend on the production, distribution and use of knowledge. Developing countries – particularly the Arab countries – still have a non-significant share of exports, which depends on knowledge of all their exports, exposing them to significant economic challenges. All developing countries must adopt short- and medium-term plans to move to the knowledge-based economy, reform laws and regulations in line with the knowledge economy concept, and increase the volume of knowledge. Agreements and investments in telecommunications information technology, higher education, and vocational training in order to cope with rapid changes in all aspects of life in order to enter the world of the economy of knowledge and positive integration in a world whose knowledge and technology have become an identity.

Knowledge economy vs. knowledge based economy:

Some economists have crossed the knowledge economy in another sense: the knowledge-based economy. However, due to the acceleration of economic transformations and technological developments, some economic researchers have worked to re-examine and distinguish between these two different connotations of the term.

  1. The knowledge economy is about the economics of knowledge processes themselves, i.e. production, knowledge making and R & D. Both in terms of costs of the knowledge process such as research and development costs or business management costs consulting or the preparation and training of experts. Moreover, between the return and revenue resulting from this process as a mere economic process such as the economics of tourism service or hotel or other hand to another.
  2. The knowledge-based economy is an advanced stage of the knowledge economy, that is to say, it depends on the clues of the knowledge economy in various economic and social activities, such as association of information technology with multiple sectors such as communications that make the economy based on knowledge and science. The major industrial countries that have benefited from the achievements of the scientific and technological revolution, have new knowledge, discoveries and advanced technologies that reached the stage of the economy based on knowledge, or what we can call the post-knowledge economy. Countries that seek to produce knowledge from innovation and acquisition, use and storage of knowledge they are still in the process of knowledge economy.

Knowledge-based Economy is the economy in which the generalization and the use of knowledge contributes to an important rate of growth and wealth creation, and the proportion of traditional factors of production, such as physical labor, capital, raw materials … where knowledge is the main factor of competitiveness.

Human capital is the core of the knowledge economy, especially the ability to innovate, and to inspire new ideas, where ICT is the main tool. The human capital is the core of this economy, in particular through the innovation, creativity, generation and exploitation of new ideas.  As well as the application of technologies and the exercise of higher commitment capabilities, making current industries contain greater knowledge density.

As a result, the economy contains more knowledge-based activities, a higher technological industry, a higher employment rates, and a higher proportion of GDP and exports. Knowledge has already become tradable, as it has become a factor of production.

The term knowledge economy is a result of the awareness of the role of knowledge and technology in economic growth. Knowledge as a human capital and a technological content has long been at the heart of economic development.

However, the importance of the knowledge economy has only increased in recent years. This was reflected in the increase in the proportion of advanced industries (electronic media, electronic, space) in the Gross Domestic Product (GDP).. It is estimated that more than 50% of the Gross Domestic Product (GDP) of the major OECD countries depends on knowledge, by making investment oriented and high-tech services especially ICT.

The physical investment in computers and automated media is the fastest growing in this field, in addition to the huge non-material investments of R & D, labor formation, programs and specialized technical competencies. Research expenditures amounted to 3.2% of GDP in the OECD region.

This change has an impact on the labor market: the demand for qualified labor increases more than the unqualified labor, according to the level of education and training, which makes the applicants to new requirements to improve their level of scientific and rehabilitation, and puts countries and governments in front of the obligation to investment more in education and training.

Aspects of the transition towards a knowledge economy:

Technology has transformed advanced economies into knowledge-based economies, which are directly based on the production of knowledge and information distribution and use. Making technology an engine of economic growth more than ever before.

This transformation is about the change in production or the spread of knowledge (especially by ICT). Which changes the consumption plan more than production processes. Technological changes have created large and new possibilities for consumption through product innovation and production processes. Which did change the nature of work from the quantitative side (creation and abolition of jobs), to the qualitative (development of rehabilitation and employment).

This structural shift initially translates into a decrease or demarcation of sectors of activity and the emergence and the growth of other parallel sectors, which redistributes the job position. This is mainly reflected in the growing segment of the services sector, both in the economic sectors (about 2/3 of the production) or (50% of the labor force in view of the lower labor productivity in these sectors). The same development has occurred in the manufacturing industry: the increasing relative importance of the high technology industry (automotive, electronics, aerospace, and pharmaceutical industries).

Media and knowledge economy:

The knowledge economy is closely related to information technology. The knowledge economy would not have existed without the information and communications revolution, which in turn had revolutionized the media, which resulted in the emergence of so-called new media.
Trade was the first of the activities that benefited from the Internet services to enhance communications and exploit them in the conclusion of deals, advertising, promotion, marketing and access to information about competitors around the world.

The media industry in modern times is one of the most powerful industrial structures in the world. The source of its strength lies not only in the enormous funds it invests in, but also in the serious impact it has on individuals, groups, governments and organizations which increase its effectiveness and impact.

There is an economic aspect of the media known as “media economics” which is defined as “a study combining the science of economics and media studies in the sense that it applies the principles of economics to media institutions in society. It explains how economic conditions guide the work of media institutions in the way they produce media programs content and how to make decisions according to the economic opportunities and challenges they are directing.

The subject of media economics was not raised in the forms of the old media. Perhaps because the cost of media before the invention of printing and then the invention of radio and television was not something worthy of research. Therefore, the interest in the ideal form or the content of the message in the old media mostly over what else. Today, the interest in the material form and the cost of the media message stand in addition to the attention to its contents. It should be noted that the transformation of media attention between the past and the present was the result of several factors:

  • Rapid growth of the media industry,
  • Mass media investments,
  • The emergence of multinational or intercontinental companies that have an effective impact on sustainability. Many media are reaching record levels of sophistication due to funding paid from these companies. Among these companies are major American media companies such as AOL – Time Warner – Viacom – Disney- News corporation …
  • Governments’ involvement in this economic activity,
  • The difficulty of production problems in the media.

Industries related to the knowledge economy in some countries:

1.    South Korea:

South Korea achieved excellent results especially in the eighties and nineties, making it one of the four Asian tigers and distinguished for the knowledge economy as follows:

  • Semiconductor: South Korea ranked third worldwide in the production of semiconductor. It constitutes 10% of Korean exports.
  • Telecommunications equipment industry: In the 1980s, investments in R & D contributed to the increase in Korean capabilities in the telecommunications equipment sector. The production ratio doubled from 1998 to 2000, which was exported by 42%. The domestic market for the sector was estimated at $ 6 billion, with imports estimated at $ 2.3 billion for the same period.
  • Software industry: Korea occupies an important position in the software industry. The sector is characterized by an intermediate level of technology and progress, especially in the field of database management systems. Domestic production was estimated at $ 6 billion, and exports were only 2.6%. The delay in this area is due to many problems, including piracy. Korea ranked sixth in the world in many years starting in the year 1994.

2.    Singapore:

Singapore has managed to maintain first place in the Global Competitiveness Report for several consecutive years. Characterized by the following sectors:

  • Electronics: Singapore aspires to progress in the global ranking in this sector by relying on the development and management of new products and applications, the entry of new markets. It aims to increase the sector’s output by 8% per year to reach $ 150 billion and to develop more than 50% of the skilled workforce in the sector by 2018.
  • IT: includes: software, hardware and IT services. Sales to end users amounted to S $ 11.95 billion in 2006. The annual growth rate of this sector amounted to 23%. Exports amounted to $7billion, a growth rate of 37% compared to the previous year, representing 87% of these exports, compared to 6.3% for software and 4.7% for services.

3.    Malaysia:

Malaysia is one of the countries that bet on education and training as a means to achieve high growth rates, and the high proportion of university graduates and higher school graduates compared to its neighbors reflects this bet, especially so-called learning by doing. It has been in advanced positions from year to year in the recent period.

4.    India:

India is one of the countries that has become a model in the field of software not long ago, mainly due to its policies. One of the critical factors in Indian IT success is the development of advanced software solutions. There are many successful Indian experiences, which have undergone years of development. These include e-commerce solutions, database solutions of all kinds, accounting solutions and electronic publishing solutions, making it easier for foreign companies to rely fully on Indian companies to use such solutions. The software export sector is growing at a rate between 40% and 50% annually, making India the second largest export market in the world, with growing companies such as “Wipro” and “Infosys” giving a bright picture of the Indian experience. In establishing a leading competitive knowledge economy.

It is noted through all previous experiences that all these countries have made efforts in the following areas:

  • Development of information infrastructure: including the physical part of computers, lines and communication networks (fiber optics)
  • Investment in education: especially in the field of education, universities in South Korea and Malaysia
  • Developing innovation
  • Maximizing the gains from foreign investment
  • Promoting export-oriented industries

Conclusion

Knowledge is the essential characteristic of human society, through which profound transformations have taken place in almost every aspect of life. Knowledge is undoubtedly one of the important achievements of both the economy and society. In this new emerging economy, it has become the main engine of economic competition. By increasing productivity and demand for new technologies and ideas. These products have effectively combined revolutionary changes in all markets and sectors.

The shift from a capital-based economy to a knowledge economy takes place through the interaction of three forces:

  • Technological change, including information technology and resources, and biotechnology.
  • Trade liberalization and internationalization of production systems
  • Liberalization of capital movement in the global economic system, this requires the restructuring or restructuring of economy, production, energy, transportation and other activities to ensure continuity…

The impact of this transformation has become apparent at the level of states, corporations, individuals and communities. At the individual level, the nucleus of the societies that make up states, they must constantly improve their skills to keep up with the constant and rapid developments and transformations in their workplaces and in the society in which they live.

Access to a knowledge economy requires states to eliminate all unnecessary restrictions, traditional laws, customs, traditions and cultures that restrict development. States and societies with high levels of culture and flexible laws are most able to influence and influence the knowledge economy, so that countries can shift from an economy based on capital and labor to the knowledge economy, this requires them to give the education system adequate attention as follow:

  • The educational system must be flexible so that the state can implement the strategy of transition to a knowledge economy.
  • To develop education policies to ensure that all students have the ability to deal with knowledge and communication technology, and that young people, and that information, knowledge and computer skills are part of the state’s interest.
  • Teachers must be qualified without exception on computer skills and provide them with all necessary equipment to develop their skills and skills in the field of knowledge and communication technology.
  • Provide investment opportunities in training in the field of knowledge and communication technology, to increase the number of employees who are able to participate in knowledge-based industries.
  • Provide training opportunities for old employees in all public and private sectors on computer and Internet skills, so that they will be able to deal with the knowledge economy.

The knowledge economy is intended to use technological techniques in addition to the process of employing them in order to reach a sophisticated life in all fields and activities using technology services and types of Internet and information technology applications. The reason for the growth of the economy in the world and production is knowledge, The reason for this is either to take out and prepare goods and services using information or through the use of technology in old goods and services, i.e. development. There are also several factors necessary for the success of the knowledge economy, namely education, R & D and innovation, in addition to changing the structure of exports.

By Nada and Nadia Berchane, 2017-2018 year group of M2 IESCI at the University of Angers

Bibliography

[1]          Smith, K. (2010), What is the ‘knowledge economy’? Knowledge intensive industries and     distributed knowledge bases.

[2]          Walter, W., Snellman, K., THE KNOWLEDGE ECONOMY. Annual Reviews. Annu. Rev. Sociol. 2004.30:199-220. Downloaded from arjournals.annualreviews.org by Stanford Univ. Robert Crown law Lib. on 06/01/06.

[3]          Michael A. Peters, Education in the Knowledge Economy, Policy Future in Education, SAGE Journals, March 1, 2003

[4]          Boettke, P, Information and Knowledge: Austrian economics in search of its uniqueness, Society for the Development of Austrian Economics Presidential address.

[5]          Peters, M.A. National Education Policy Constructions of the ‘Knowledge Economy’: Towards a critique, Journal of Educational Enquiry, 2.

[6]          Stiglitz, J. Public Policy for a Knowledge Economy. Remarks at the Department for Trade and Industry and Center for Economic Policy Research, London, 27 January.

[7]          Elias G. Carayannis, Journal of the Knowledge Economy, ISSN: 1868-7873, Springer

[8]          Francisco Javier Carillo, Knowledge-based development as a new economic culture, Jornal of Open Innovation: Technology, Market, and Complexity, October 15, 2015

[9]          The Knowledge-Based Economy, OECD, Paris, 1996

L’article Towards a knowledge economy est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Introduction aux NBIC et à leurs évolutions https://master-iesc-angers.com/introduction-aux-nbic-et-a-leurs-evolutions/ Fri, 15 Dec 2017 10:16:26 +0000 http://master-iesc-angers.com/?p=2527 La date du 11 mai 1997 marque un tournant dans l’histoire de l’Intelligence Artificielle. Pour la première fois, dans un match qui oppose le champion du monde de jeu d’échecs Gary Kasparov au supercalculateur d’IBM Deeper Blue, la machine sort… Continuer la lecture

L’article Introduction aux NBIC et à leurs évolutions est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
La date du 11 mai 1997 marque un tournant dans l’histoire de l’Intelligence Artificielle. Pour la première fois, dans un match qui oppose le champion du monde de jeu d’échecs Gary Kasparov au supercalculateur d’IBM Deeper Blue, la machine sort victorieuse.

Il faudra attendre presque vingt ans pour qu’un exploit similaire se reproduise. Le 15 mars 2016, c’est Lee Sedol, champion du monde du jeu de go, qui s’incline face à AlphaGo, un algorithme développé par la société Deep Thought, elle-même propriété de Google.

Cette progression de l’Intelligence Artificielle (IA) a été largement commentée car la complexité du jeu de go est bien plus élevée que celle des échecs, tant au niveau des règles que du nombre de positions possibles, à tel point que les experts en IA aussi bien qu’en jeu de go ne pensaient pas qu’une machine serait capable de mettre en défaut l’Homme avant une dizaine d’années.

Mais c’est surtout la technologie sous-jacente à cette victoire qui est en rupture avec ce qu’on pouvait auparavant trouver dans le domaine de l’Intelligence Artificielle : AlphaGo est un algorithme reposant sur des réseaux de neurones artificiels permettant un apprentissage profond (ou « deep learning » en anglais). Cela veut concrètement dire que plutôt que de bénéficier d’une base de données fixe à laquelle l’algorithme aurait recourt pour calculer les probabilités des meilleurs coups possibles en fonction d’une situation donnée, l’algorithme s’améliore au fil des parties qu’il effectue pour intégrer les « bons coups » et apprendre de ses erreurs.

Ainsi, les concepteurs d’AlphaGo ne lui ont pas appris à jouer au jeu de go, ou de manière très rudimentaire ; c’est le jeu qui s’est appris lui-même à jouer au fur et à mesure des parties auxquelles il a été confronté, jusqu’à parvenir dépasser le meilleur joueur humain de go.

Pour certains observateurs, ces progrès de l’IA sont à replacer dans un contexte plus large, celui des NBIC (pour Nanotechnologies, Biotechnologies, technologies de l’Information et sciences Cognitives) et sont la preuve de l’existence d’une « convergence » de ces NBIC. Qu’est-ce que cela signifie ? c’est ce que cet article cherchera à expliciter avec, en première partie un détail sur ce que couvre le terme de « NBIC », avant de s’intéresser aux signes d’une convergence de ces technologies dans une seconde partie.

NBIC – Qu’est-ce que c’est ?

1. Les nanotechnologies.

Les nanotechnologies sont littéralement les « technologies du tout petit ». Elles tirent leur nom du nanomètre, l’unité de mesure de longueur qui représente un milliardième de mètre.

L’émergence des nanotechnologies fut possible grâce à l’invention en 1981 par des ingénieurs d’IBM du microscope à effet de tunnel, le premier microscope donnant accès au « nanomonde » et permettant d’observer différents matériaux à l’échelle nanométrique.

La recherche scientifique étant maintenant possible à l’échelle nanométrique, elle va alors se développer. Dans ce développement, elle va bénéficier d’un « coup de pouce » grâce à un étudiant du Massachusetts Institute of Technology, Eric Drexler, qui va mettre les nanotechnologies sur le devant de la scène.

En 1986 est publié Engines of Creation : The Coming Era of Nanotechnology, un ouvrage dans lequel Drexler imagine les transformations de nos sociétés grâce à l’avènement des nanotechnologies dans des domaines tels que la médecine, l’informatique ou la production de matériaux. Cet ouvrage, à mi-chemin entre la publication scientifique et le récit de science-fiction va participer auprès du grand public et des décideurs politiques à une prise de conscience autours des enjeux que représentent ces nanotechnologies et va nourrir les décisions d’investissements publics massifs en Europe, aux Etats-Unis et au Japon à la fin des années 1990 et au début des années 2000.

Aujourd’hui en 2017, les nanotechnologies sont une réalité, mais une réalité qui recouvre deux sens.

Le premier décrit le changement de propriétés que connaissent certains matériaux lorsqu’ils sont transposés à l’échelle nanométrique, qualifié d’effet quantique. Les nanoparticules d’or par exemple n’ont pas la même couleur, pas le même point de fusion ni la même conductivité que l’or tel que nous le connaissons. De la même manière, les nanoparticules d’argent possèdent des propriétés biocides qui n’existent pas à l’échelle micro ou macro, et qui sont aujourd’hui intégrées dans les textiles pour obtenir par exemple des sous-vêtements sans odeur.

Ces effets quantiques étant largement méconnus, une grande partie de la recherche aujourd’hui se concentre sur leur découverte, et sur la création de structures et d’architectures moléculaires permettant d’exploiter ces effets quantiques et de les intégrer à de nouveaux matériaux et nouveaux produits.

Le second s’attache au travail sur les matériaux à l’échelle nanométrique sans pour autant rechercher des effets quantiques. L’exemple le plus connu de ce type de nanotechnologie est le nanotube de carbone dont les propriétés physiques exceptionnelles permettent un grand nombre d’applications industrielles. Les nanotechnologies permettent alors un travail plus fin sur les matériaux afin d’en maximiser les propriétés initiales, comme c’est le cas en ce qui concerne la lithographie électronique, permettant une gravure plus fine des microprocesseurs et donc des performances en hausse chaque année.

2. Les biotechnologies.

Les biotechnologies sont, selon l’OCDE, « l’application à des organismes vivants des principes scientifiques et de l’ingénierie à la transformation de matériaux vivants ou non-vivants aux fins de la production de connaissances, de biens et de services. ».

A l’inverse des nanotechnologies, les biotechnologies sont loin d’être nouvelles : la fermentation alcoolique, de par l’utilisation de levures pour transformer le sucre en alcool, est une forme de biotechnologie très ancienne.

Aujourd’hui, les biotechnologies se divisent en cinq grands sous-domaines :

  • Les biotechnologies vertes : il s’agit des biotechnologies qui s’intéressent à l’agriculture, à l’élevage ou encore à l’agroalimentaire. Une des réalisations des biotechnologies vertes est la création des organismes génétiquement modifiés, les OGM.
  • Les biotechnologies bleues : il s’agit des biotechnologies explorant et exploitant les ressources marines en vue de concevoir de nouveaux produits.
  • Les biotechnologies rouges : elles concernent les domaines de la santé, du médicament et du diagnostic. Elles servent la création de nouveaux tissus ou l’élaboration de nouveaux procédés moléculaires ou génétiques à des fins thérapeutiques. Un exemple de biotechnologie rouge communément rencontrée est le vaccin.
  • Les biotechnologies jaunes : ce sont les biotechnologies à finalités environnementales, servant à résoudre des problèmes environnementaux tels que la pollution des sols ou des eaux.
  • Les biotechnologies blanches : il s’agit de l’utilisation industrielle des biotechnologies dans le but de créer de nouveaux procédés pour produire de la bioénergie ou de nouveau matériaux tels que des polymères biodégradables.

3. Les technologies de l’information.

Les technologies de l’information, plus communément appelées « informatique », sont maintenant un élément bien ancré dans nos vies, tant professionnelles que privées. L’usage des technologies de l’information est aujourd’hui omniprésent, que ce soit par l’utilisation d’ordinateurs personnels ou de smartphones, par la progression des supports numériques qui remplacent les supports physiques dans nombre de domaines tels que la musique ou le cinéma, mais aussi car nombre de biens physiques s’enrichissent de caractéristiques numériques en plus de leurs fonctions usuelles : ordinateurs de bords dans les véhicules, ou plus récemment, développement des objets connectées  et de « l’Internet des objets ».

Si vous lisez cet article, il est fort probable que vous soyez familier avec ce type de technologie. L’exergue sera alors plutôt placé sur deux éléments qui peuvent expliquer cette invasion progressive du numérique.

Le premier est l’existence de la loi de Moore : selon Gordon. E. Moore, tous les 18 à 24 mois, la puissance des microprocesseurs double. Cette loi s’est montrée stable dans le temps comme on peut l’observer ici (Source – sur les données d’Intel).

Cette hausse continue de la puissance des microprocesseurs implique qu’avec le temps, les champs d’applications des technologies de l’information s’étendent à de plus en plus de domaines.

Le second élément est la baisse continue du prix du transistors. En 1973 selon le Ministère de la recherche, un million de transistors valaient environ 76 000 euros. En 2005, le même nombre de transistors ne valait plus que 0,004 euros ; un prix inférieur à celui d’une feuille de papier !

Avec une puissance croissante pour toujours plus de nouvelles applications, et un prix en constante diminution, la démocratisation des technologies de l’information est un phénomène bien réel et aisément appréhendable.

4. Les sciences cognitives.

Les sciences cognitives sont les sciences qui s’intéressent à la cognition, elle-même définie par le dictionnaire Larousse comme étant la « faculté de connaitre », et de manière plus explicite « l’ensemble des structures et activités psychologiques dont la fonction est la connaissance, par opposition aux domaines de l’affectivité ».

Les sciences cognitives se trouvent au carrefour de plusieurs disciplines : la philosophie, la psychologie, la linguistique, les neurosciences, l’anthropologie et l’intelligence artificielle.

Du fait de cette transdisciplinarité des sciences cognitives, les questions abordées par ces sciences sont variées. Il peut s’agir d’interrogations sur la manière qu’à le cerveau de façonner le langage, et l’action qu’effectue en retour sur le cerveau le langage. Il peut s’agir d’une réflexion sur le rôle joué par les différentes aires du cerveau sur les capacités cognitives d’un individu. Il peut s’agir de questions autour de l’impact des neurotransmetteurs sur les comportements humains. Il peut s’agir de réflexions plus philosophiques sur la manière dont la conscience émerge des connexions neuronales, ou sur la réalité que nous semblons tous partager et qui est pourtant le fruit d’une interprétation individuelle des signaux qui sont transmis de nos organes sensoriels à nos cerveaux. Enfin, il s’agit aussi de replacer la pensée humaine en rapport avec la machine comme l’ont fait certains penseurs tels qu’Alan Turing, avec la machine de Turing ou encore le test de Turing.

Les sciences cognitives cherchent alors à décrypter, à comprendre les mécanismes sous-jacents aux fonctions intellectuelles des êtres humains.

La convergence des NBIC

Lorsqu’on parle des technologies NBIC, la « convergence » de ces technologies est un terme qui revient fréquemment. Il s’explique par le fait qu’il apparait qu’au fur et à mesure que ces technologies NBIC se développent, une analogie entre systèmes vivants et artificiels apparait. Cette analogie est possible grâce aux progrès des sciences cognitives, des biotechnologies et de l’informatique, mais aussi grâce à la concrétisation des nanotechnologies.

Mais comment cette convergence se manifeste-t-elle ?

Un premier exemple est l’utilisation de réseaux de neurones artificiels dont le fonctionnement est inspiré des réseaux de neurones biologiques. Le but de ces réseaux de neurones artificiels est de produire un système en plusieurs couches dont la finalité est la reconnaissance d’éléments donnés : lignes spécifiques d’une partie du visage, formes d’un panneau de signalisation, reconnaissance du son d’une voyelle ou d’une consonne prononcée …

Ces éléments reconnus par les réseaux de neurones artificiels vont ensuite être interprétés et combinés par des algorithmes qui vont chercher à donner un sens global et des éléments individuels : le principe de fonctionnement de ces algorithmes est directement tiré de l’enseignement des sciences cognitives sur le cerveau.

Comme indiqué en introduction, ces réseaux de neurones artificiels ont été utilisés par l’algorithme AlphaGo, mais ils ont aussi des applications beaucoup plus proches de nos vies quotidiennes. En septembre 2017, lors de la présentation des nouveaux iPhone 8 et X de la firme Apple, il a été annoncé que ces nouveaux téléphonse intégreraient un « réseau neuronal » afin de rendre l’IA embarquée de ces téléphones plus performante, mais aussi d’amorcer l’adaptation du hardware à cette convergence des NBIC.

Un autre domaine dans lequel les NBIC convergent est dans celui de la manipulation de l’ADN et de la génétique. Un brin d’ADN mesurant 3 à 4 nanomètres, les nanotechnologies rendent la manipulation des brins d’ADN désormais possible.

Ces manipulations passent par le biais de l’édition du code génétique contenu par les brins d’ADN de la même manière que l’on écrirait du code informatique pour créer un logiciel. C’est en partie ce qu’a pu réaliser Craig Venter en 2007 en remplaçant une partie de l’ADN d’une cellule par de l’ADN artificiel créé en laboratoire.

De par cette similarité entre code informatique et code génétique supporté par l’ADN, des recherches existent aujourd’hui pour utiliser l’ADN comme support de données numériques, des recherches auxquelles les GAFA s’intéressent car elles permettent un gain de place considérable et une stabilité dans le temps qui n’existe pas avec les moyens de stockages utilisés actuellement.

Mais là où la convergence des NBIC est peut-être la plus flagrante, c’est dans ce qu’elle permet et permettra dans le domaine de la médecine.

Grâce à l’édition de l’ADN et son intégration possible dans des cellules vivantes, certains imaginent déjà des traitements à base de cellules artificielles ayant pour but d’éradiquer les symptômes de certaines maladies, voir d’éradiquer la maladie elle-même.

Un pan de la recherche s’intéresse aussi aux nano médicaments, des médicaments qui iront agir de manière localisée directement à l’intérieur de cellules de certains organes plutôt que de se diffuser de manière indifférenciée dans l’ensemble de l’organisme. Certains de ces médicaments sont déjà une réalité comme dans le traitement du cancer, où des nanoparticules d’or sont injectées dans des cellules, permettant alors de détruire ces cellules par radiothérapie.

D’autres recherches encore s’intéressent à un interfaçage possible entre l’artificiel et le vivant : créer des ajouts artificiels à certains organes pour compenser une mal-fonction ou un défaut, par exemple, une rétine artificielle pour les malvoyants et aveugles conçue en nanomatériaux réactif à la lumière qui serait ensuite mise en connexion avec le nerf optique par le biais de la nanotechnologie. Si ces recherches visent à corriger un défaut existant, d’autres en viennent à fantasmer sur l’idée d’un être humain « augmenté » dans lequel il serait possible de remplacer certains organes ou certaines fonctions par des fonctions artificielles créées en laboratoire : greffe de processeurs et de neurones artificiels dans le cerveau, remplacement de certaines cellules par d’autres insensibles au vieillissement …

Conclusion :

Les NBIC sont un domaine en pleine expansion et porteuses de nombreux espoirs en termes de développements futurs. L’IA commence à être accessible au grand public et promet d’être un allié de taille pour la recherche scientifique en automatisant des étapes qui demandent actuellement aux chercheurs beaucoup de temps et d’énergie. Les nano médicaments portent en eux les espoirs d’une moins grande vulnérabilité aux maladies et d’un allongement de la durée de vie en bonne santé. Les nanotechnologies pourraient aider à résoudre certains problèmes environnementaux liés à la pollution des sols.

Mais chez les développeurs de ces NBIC, ces attentes semblent se rapprocher de la science-fiction avec de développement d’une pensée « transhumaniste » où grâce aux NBIC, l’être humain pourrait transcender sa propre existence. C’est un courant de pensée qui existe notamment chez les dirigeants de Google qui espèrent d’ici 2045 pouvoir « tuer la mort », mais qui est remis en question par nombre de chercheurs dans le domaine en étant qualifié « d’irréaliste » … du moins dans un futur proche.

Si les NBIC nourrissent autant de fantasmes, c’est finalement que malgré les progrès accomplis, elles ne sont pas encore assez matures et suffisamment explorées pour qu’on puisse réellement savoir où elles mènent. Le terme de « convergence » est alors assez révélateur car il semble pointer que ces technologies se rapprochent les unes des autres sans révéler la direction vers laquelle elles nous dirigent.

Reste qu’au-delà des attentes, il y a aussi des craintes : impact des nanomatériaux sur la santé et l’environnement, impact de l’intelligence artificielle sur le marché du travail dont l’équilibre est précaire dans de nombreux pays, question des inégalités d’accès aux traitements de pointe et donc coûteux ou encore questions éthiques autours de la modification génétique du vivant, ces NBIC sont aussi annonciatrices de changement radicaux dans un monde déjà bien incertain.

Par Benoit Fournier, promotion 2017-2018 du M2 IESCI

Bibliographie :

Auplat, Claire, et Aurélie Delemarle. « Mieux comprendre les nouvelles opportunités liées aux nanotechnologies », Entreprendre & Innover, vol. 16, no. 4, 2012, pp. 64-77.

Benoit-Browaeys, Dorothée. « Sciences : nanotechnologies et mégadéfis », Alternatives économiques, vol. 237, no. 6, 2005.

Cayla, David. Cours d’ « Economy of information and knowledge », 2016.

Editorial, « the future of nanotechnolgies », Technovation, vol. 32, 2012, pp. 157–160.

Jean-Marc Grognet. « Nanotechnologies : des sciences de l’information à la pharmacologie », Thérapie, vol. 63, no.1, 2007, pp. 1-9.  

Jean-Yves Bottero, Jean-Marc Grognet, Louis Laurent, « Nanotechnologies : promesses et débats », Innovation, Éco-conception et innovation responsable, 2010.

Le Gall, Philippe. Cours de « méthodologie de recherche », 2017.

Maldamé, Jean-Michel. « Faut-il avoir peur des sciences cognitives ? », Études, vol. tome 396, no. 1, 2002, pp. 51-62.

Webographie :

https://www.lebigdata.fr/adn-synthetique-lavenir-stockage-de-donnees

https://deepmind.com/research/alphago/

http://www.astrosurf.com/luxorion/loi-moore.htm

https://www.ted.com/talks/ray_kurzweil_get_ready_for_hybrid_thinking

http://www.cite-sciences.fr/fr/ressources/science-actualites/detail/news/biologie-et-craig-venter-crea-la-vie/?tx_news_pi1%5Bcontroller%5D=News&tx_news_pi1%5Baction%5D=detail&cHash=cf21b9fb49808a73065b7a549d37d1c6

https://www.youtube.com/watch?v=7LrE65tEFyk

L’article Introduction aux NBIC et à leurs évolutions est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Comparatif des systèmes d’exploitation informatiques https://master-iesc-angers.com/comparatif-des-systemes-dexploitation-en-informatique/ Tue, 05 Dec 2017 17:21:48 +0000 http://master-iesc-angers.com/?p=2479 Un système d’exploitation ou Operating System en anglais (souvent abrégé par OS) est composé de l’ensemble des programmes permettant de faire fonctionner un ordinateur. Il permet de faire fonctionner les différents composants de la machine grâce aux programmes associés que… Continuer la lecture

L’article Comparatif des systèmes d’exploitation informatiques est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Un système d’exploitation ou Operating System en anglais (souvent abrégé par OS) est composé de l’ensemble des programmes permettant de faire fonctionner un ordinateur. Il permet de faire fonctionner les différents composants de la machine grâce aux programmes associés que l’on appelle pilotes (ou drivers en anglais). Quelques exemples de composants : la carte son permettant d’avoir du son, la carte graphique pour les images, le disque dur où sont stockées toutes les données…

Ce système permet de faire l’intermédiaire entre l’utilisateur et son matériel informatique. Sans ce système, l’utilisateur ne pourrait pas allumer son ordinateur et utiliser ses applications les plus courantes (Microsoft Office, le navigateur internet, des jeux vidéo…)

On retrouve des systèmes d’exploitation préinstallés dans divers appareils informatiques : ordinateurs de bureau et portables, tablettes tactiles, smartphones, console de jeu…

Dans cet article, nous présenterons les systèmes d’exploitation les plus courants sur les ordinateurs personnels et portables : Windows de chez Microsoft, Mac OS de chez Apple et diverses distributions GNU/Linux.

3 géants contrôlent le marché de l’informatique : Microsoft avec Windows, Apple avec son Mac OS et GNU/Linux  avec les différentes distributions commerciales et non commerciales. Une comparaison et une présentation détaillée seront traitées dans cet article.

Microsoft Windows

Historique

Windows est un système d’exploitation imaginé et développé par Bill Gates, PDG de Microsoft, depuis le milieu des années 1980. Ce système d’exploitation a été développé pour les ordinateurs personnels de bureau et portable. Depuis cette période, plusieurs versions ont été développées.

Au départ, Windows a été développé sur les PC conçus par IBM et ses clones conçus par Microsoft. L’interface n’existait pas sous forme graphique à l’époque, tout fonctionnait en « lignes de commande ». Un peu plus tard, Windows 1 fait son apparition et propose pour la première fois une interface graphique pour les PC. A ce moment-là, le système n’intégrait que des opérations mono tâche c’est-à-dire que le système était lancé sous forme d’un simple programme reposant sur le système préexistant : MS-DOS. Certaines fonctions que l’on connait aujourd’hui étaient assurées par Windows 1 comme le tracking de la souris sur l’écran ou le multi fenêtrage qui ne faisait que séparer l’écran en deux sans superpositions.

Windows 2 qui succéda au Windows 1 ajoutait la superposition de fenêtres mais la résolution était nettement plus faible qu’aujourd’hui. Windows 3, inspiré du projet Alto de Xerox, puis de Lisa et du Macintosh de Apple, propose l’architecture la plus proche de celle que nous connaissons aujourd’hui c’est-à-dire que Windows prend la forme d’une interface indépendante de l’ordinateur composée de plusieurs sous programmes. Cela lui donnera enfin son nom de Windows.

Windows 3 utilisa la métaphore du bureau avec des fichiers, des dossiers et une corbeille. Cependant cela arriva après le lancement du Macintosh de Apple en 1990.

A partir du milieu des années 1990, Windows prend sa forme définitive avec un menu « démarrer », ses fichiers, ses dossiers et sa corbeille. Plusieurs logiciels sont livrés avec le système, ce qui imposa les normes spécifiques au système tels que les fichiers en « .exe » ou «  .doc » par exemple.

Au début des années 2000, Microsoft lance son fameux Windows XP qui fut un énorme succès grâce à son ergonomie et sa simplicité. Cependant, cette version mit en lumière des lacunes liées à la sécurité du système. Sa stabilité en fera un système toujours en activité 10 ans après.

Windows Vista succéda à Windows XP mais ne trouvera pas un grand taux d’adoption en raison de sa lenteur et de son instabilité. On entend par stabilité d’un système d’exploitation, la capacité à rester actif sans que le système ne lâche en affichant un « blue screen ». Il faudra attendre Windows 7, sorti en 2009,  qui sera adopté par beaucoup d’utilisateurs. Il est encore en activité aujourd’hui.

Windows 8 sera lancé en 2012 mais ne sera pas plébiscité par le public du fait que son architecture soit complétement différente des versions précédentes. Le menu « démarrer » n’existe plus. Ce flop est dû au fait que cette version a été trop pensée pour le tactile. Il faudra attendre la dernière version sortie en 2016, Windows 10, pour voir le menu « démarrer » faire sa réapparition. Pour pallier aux lacunes de sécurité, Microsoft a mis en place un système de mise à jour permanente et obligatoire tous les six mois.

Politique commerciale et économique de Microsoft

Microsoft Windows possède le quasi-monopole du marché des systèmes d’exploitation informatique. Historiquement parlant, la part de marché du système d’exploitation de Microsoft a toujours été stable au-dessus des 90%. En effet, la plupart des PC de bureau et portables sont livrés avec l’OS de Microsoft  en pré installé. Cela est dû à la politique commerciale de Microsoft qui vise avant tout le grand public et permet de proposer une interface facile à prendre en main.

En effet, Microsoft vend ses produits au détail et négocie les prix avec ses grossistes et laisse ceux-ci fixer la marge en fonction de leur marché. ce système de vente est exclusif à l’Europe. Aucun prix n’est affiché sur les sites web français ou britannique par exemple. En revanche, ceux-ci sont bel et bien affichés sur le site américain de la multinationale. Autrement dit, chacun des logiciels développés par Microsoft est vendu seul et a un prix spécifique fixé par la firme aux Etats Unis.

Voici quelques chiffres sur les différentes versions de Windows et leur part de marché respectives entre 2011 et 2017 (tous les chiffres présentés ici sont basés sur les études de Net Applications aux Etats Unis) :

Sur ce graphique, on remarque que Windows XP qui est l’une des versions les plus plébiscitées par le grand public et que les entreprises l’ont très vite abandonné au profit de Windows 7. On peut également remarqué que la version Windows 8 de Microsoft n’a pas dépassé les 10 % depuis sa sortie. Cela peut être expliqué par le fait que Microsoft voulait étendre son marché aux smartphones et aux tablettes. L’interface était optimisée pour fonctionner sur un appareil mobile et non sur un ordinateur de bureau ou un portable. Windows 10 a un énorme succès depuis sa sortie. En effet, cette version de Windows a gagné près de 30% en 2 ans.

Mac OS

Petit historique

Mac OS est un système d’exploitation développé par Apple dans les années 1980 pour ses ordinateurs Macintosh. Cet OS s’adresse avant tout aux artistes ainsi qu’aux professionnels. Tout commence avec le développement du Macintosh au milieu des années 1980 par Steve Jobs et son équipe. Le Macintosh est le premier ordinateur à proposer une interface graphique en utilisant la métaphore du bureau avec des dossiers, des fichiers et une corbeille à l’écran. Dans les années 1990, Apple améliore son Macintosh pour proposer un modèle sur la base du power PC avec une tour dans laquelle sont installés les composants. En termes de systèmes d’exploitation, Apple a également modifié son système pour le rendre performant grâce à des mises à jour régulières.

Au fur et à mesure de ces améliorations, des spécialistes de la sécurité informatique ont soulevé un certain nombre de disfonctionnements en termes de sécurité. En effet, des logiciels malveillants ainsi que des virus spécifiques au système Mac OS ont fait leur apparition. Les logiciels malveillants que l’on appelle « malwares » sont des logiciels que l’utilisateur reçoit le plus souvent par mail. Ceux-ci ont la particularité d’être des fichiers dits exécutables c’est-à-dire que si l’utilisateur lance le programme, le malware s’active et infecte le système.

Les virus quant à eux sont des programmes qui circulent sur internet. Nous appellerons ces programmes « cheval de troie ». Les chevaux de troie sont des programmes qui s’exécutent sans l’intervention de l’utilisateur et sont le plus souvent discrets.

Tous ces programmes, malwares ou virus, peuvent causer des dégâts important dans le système. Ils ont pour objectif de récupérer des données personnelles sur l’utilisateur tout en causant  de sérieux dommages aux composants qui à terme empêcheront le démarrage de la machine.

Suite à ces remarques, Apple a développé un programme qui fonctionne en « tâche de fond » dont l’objectif est de fonctionner sur le modèle de l’anti-virus. Ce programme empêche les malwares d’infecter le système mais n’empêche pas l’infection par un virus. Pour améliorer ce système de protection, Apple met en place des mises à jour régulières de son système d’exploitation.

Politique économique et commerciale d’Apple

Apple a une politique commerciale et économique agressive c’est-à-dire que la firme propose de nombreux produits au grand public quitte à violer des brevets concurrents comme ceux déposés par Samsung par exemple.

Concernant le marché de son système d’exploitation, Apple a une politique assez proche de sa stratégie globale. Cela est dû au fait que la multinationale ne publie pas de feuille de route pour une adaptation à 5 ans des entreprises informatiques partenaires. A plusieurs reprises, les entreprises ont été obligées de s’adapter de façon abrupte. Le changement le plus significatif a été le changement de technologie pour le Mac. On est passé d’une technologie Power PC à un système intégrant la technologie issue d’Intel.

Entre 2011 et 2017, le système Mac OS s’est de plus en plus démocratisé mais n’atteint pas le même taux d’adoption que celui de Windows. Cela est dû à la politique de prix élevée chez Apple dans la vente de ses Mac. En effet, pour certains produits, on peut atteindre les 1000 € de dépenses.

Selon une étude de l’observatoire informatique Net Application, Mac OS aurait un taux d’adoption d’environ 8 % au niveau mondial et de plus de 30 % en Amérique du Nord. Ces résultats sont dus à la politique de Microsoft qui propose ses produits au détail à un prix plus abordable que ceux pratiqués par Apple.

GNU/Linux

Petit historique de l’OS

GNU/Linux est un système d’exploitation multi tâche dérivé du projet américain UNIX  créé dans les années 1960 par Kenneth Thompson. Dans les années 1980, Richard Stallman, lance un projet dérivé du projet UNIX sous le nom de GNU. Cela lança le mouvement du logiciel libre basé sur le partage et l’utilisation en libre accès du code source de ces logiciels. Le fait que ces codes soient en libre accès pousse les développeurs à y apporter des modifications comme des correctifs de sécurité par exemple.

Plus tard en 1991, l’étudiant finlandais, Linus Torvalds, développe, suite à une indisposition due à la faible disponibilité des serveurs informatiques UNIX  de l’université d’Helsinki, le noyau Linux. Ce nouveau noyau apporta un tournant au projet Gnu de Richard Stallman. Cette innovation a permis aux différentes distributions que l’on connait aujourd’hui d’être développées.

Principales distributions connues :

  • Debian est une distribution Linux développée et lancée en 1993 par une association à but non lucratif soutenue par la Free Software Foundation (FSF). Elle prône l’ouverture totale du système d’exploitation et l’utilisation exclusive de logiciels libres. Le projet Debian possède un mode de gouvernance démocratique et est composé de membres bénévoles dont la plupart sont des développeurs. Cette distribution est toujours en activité grâce à la communauté et à l’équipe de développement. Plusieurs distributions dérivent de Debian, la plus connue et utilisée est Ubuntu qui est développée par l’entreprise Canonical.
  • ArchLinux est une distribution communautaire lancée au début des années 2000. Elle se destine avant tout aux développeurs et aux utilisateurs connaissant bien le système GNU/Linux. Cette distribution utilise un système de mise à jour régulière que l’on appelle « Rolling Release ». Plusieurs distributions découlent d’ArchLinux. Nous pouvons citer ArchBang, Chakra ou encore Manjaro.  ArchBang, Chakra et Manjaro sont des distributions qui se veulent User-Friendly c’est-à-dire accessible au grand public comme aux utilisateurs avertis. Leur point fort est une utilisation facilitée pour l’utilisateur.
  • Gentoo est une distribution Linux lancée en 2002. Cette distribution s’adresse aux développeurs et aux habitués au système Linux. Comme ArchLinux, elle possède un système de mise à jour sur le modèle de « Rolling Release. Gentoo a la particularité d’être une distribution dite source c’est-à-dire que les logiciels doivent être compilés à partir du code source. Elle permet donc d’installer des logiciels in situ et d’être entièrement personnalisable.
  • Slackware est la distribution la plus ancienne de Linux. Celle-ci a été lancée en 1993. Slackware se veut rapide, légère et sans fioriture. Cette distribution est optimisée pour l’utilisation de serveurs et s’adresse surtout aux développeurs web.

Politique économique et commerciale de GNU/Linux

GNU/Linux ne représente qu’en moyenne 2% des parts de marché des systèmes d’exploitation sur ordinateur de bureau et machines portables.  Cela peut s’expliquer par le fait que les systèmes GNU/Linux soient moins connus des utilisateurs grand public. Lorsque l’on compare les couvertures médiatique des principaux systèmes, on remarque rapidement que Windows et Mac occupe tout l’espace. Ce qui signifie que pour connaitre l’univers GNU/Linux, il est nécessaire de faire des recherches sur les sites et forums spécialisés. Le fait que le système d’exploitation de Microsoft soit préinstallé sur les postes informatiques neufs masque la présence de tels systèmes. Même si on voit des ordinateurs équipés de Linux, le fait que les vendeurs d’ordinateurs de bureau ou portables ne prennent pas le temps de présenter GNU/Linux au client car Linux peut être comparé à un insecte vis-à-vis du mastodonte que représente Windows.

Comparons maintenant les principaux systèmes entre eux

En général, les systèmes d’exploitation sont préinstallés et prêt à l’emploi. Cela est surtout valable dans le cas de Windows et de Mac. Ces deux systèmes représentent respectivement 90 % du marché pour Windows et 8% pour Mac. GNU/Linux ne possède que 2% du marché et les ordinateurs prés équipés d’une des distributions sont rares. Généralement, la distribution la plus commune est Ubuntu de chez Canonical.

En termes d’installation, l’utilitaire de Windows et Mac OS peuvent se montrer fastidieux lorsque l’on ne connait pas son système et demandent d’installer un à un les programmes liés aux différents composants. Le cas de GNU/Linux est légèrement différent car l’installation est plus ou moins difficile selon la distribution. Il est important de distinguer les distributions commerciales de celles qui sont non-commerciales. La distribution Debian (prononcé Débiane) est l’exemple type de la distribution non-commerciale contrairement à la distribution Red Hat qui est développée par la société du même nom qui est commerciale dans le sens où pour placer son produit, l’entreprise s’appuie sur les services qu’elle peut fournir à l’utilisateur afin de dégager des bénéfices. Une distribution est dite non commerciale lorsqu’elle est développée par une communauté soutenue par une association à but non lucratif.

Les distributions du type Ubuntu ou Mageia dérivant toute deux de Debian se veulent User-friendly car simples à installer et lorsqu’il y a un souci, le wiki est très bien fourni. Il existe d’autres distributions dont l’architecture se base sur celle d’ArchLinux. Celles-ci sont plus complexes mais restent User friendly dans leur installation qui peut être graphique ou en ligne de commande. C’est le cas de Manjaro par exemple qui présente plusieurs façons d’installer son système. L’une d’entre elle étant graphique et guidée et d’autres plus complexes comme la version CLI qui se fait entièrement en lignes de commande et s’adressant aux utilisateurs avertis voir confirmés de Linux. Le gros point positif d’une telle distribution est le système de mise à jour continuelle que l’on nomme « Rolling Release » permettant à l’utilisateur de garder définitivement son système sans avoir à le réinstaller tous les 6mois environs. Cependant cette mise à jour repose sur un système de lignes de commande rendant le processus complexe. Heureusement, la liste des commandes est fournie dans le mode d’emploi pour faciliter l’utilisation.

La version d’origine utilisant la « Rolling Release » est ArchLinux dont l’installation se fait entièrement en lignes de commande. Cela s’adresse plus aux habitués et aux utilisateurs confirmés du système. Son installation permet en revanche d’installer ce que l’utilisateur veut et personnalise son système selon ses envies ce qui n’est pas forcément le cas de Windows ou de Mac. Comme GNU/Linux repose sur l’open source, il est très facile de faire un système « aux petits oignons » c’est-à-dire entièrement personnalisé : du bureau au fond d’écran en passant par les logiciels.

Conclusion

Pour conclure, l’utilisateur a un grand choix de système d’exploitation. Ceux-ci sont plus ou moins faciles d’accès dans leur utilisation et plus ou moins personnalisables. Tout dépend de ses goûts en matière d’informatique. Là où la plupart y verront un système prêt à l’emploi et sans prise de tête, d’autres y verront une liberté réduite dans la customisation de sa machine.

Si vous, oui vous,  utilisateur, voulez un système sans prise de tête et prêt à l’emploi, optez pour un PC avec Windows ou un Mac de chez Apple. En revanche, si vous voulez personnaliser entièrement votre système, optez plutôt pour une machine avec une des nombreuses distributions GNU/Linux. Vous êtes servi quitte à y passer un peu de temps à personnaliser, vous y trouverez votre bonheur. L’installation n’est pas bien compliquée, vous avez une communauté prête à vous aider quel que soit votre souci.

Par Mounir Lehiani, étudiant en Master 2 IESCI- promotion 2017-2018

Webographie :

https://fr.wikipedia.org/wiki/Linux

https://fr.wikipedia.org/wiki/Microsoft_Windows

https://fr.wikipedia.org/wiki/Politique_commerciale_de_Microsoft

https://fr.wikipedia.org/wiki/Apple

https://fr.wikipedia.org/wiki/Mac_OS

http://www.zdnet.fr/actualites/chiffres-cles-les-systemes-d-exploitation-sur-pc-39790131.htm

https://www.developpez.com/actu/86029/Part-de-marche-des-OS-Windows-XP-cede-finalement-sa-deuxieme-place-Windows-8-1-enregistre-la-meilleure-progression-en-mai-2015/

https://mavielinux.com/2015/06/04/les-parts-de-marche-de-linux-en-mai-2015/

https://www.silicon.fr/linux-deux-fois-plus-utilise-que-windows-82907.html

https://forum.ubuntu-fr.org/viewtopic.php?id=1591801

 

L’article Comparatif des systèmes d’exploitation informatiques est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Information sur Internet : de l’utopie vers la dystopie ? https://master-iesc-angers.com/information-sur-internet-de-lutopie-vers-la-dystopie/ Tue, 21 Nov 2017 13:20:06 +0000 http://master-iesc-angers.com/?p=2419 Alors qu’il était vice-président des Etats-Unis, Al Gore déclarait lors d’un discours à Minneapolis à propos d’Internet qu’il s’agirait d’un « moyen d’approfondir et d’enrichir nos valeurs universelles les plus anciennes et les plus prisées : relèvement du niveau de… Continuer la lecture

L’article Information sur Internet : de l’utopie vers la dystopie ? est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Alors qu’il était vice-président des Etats-Unis, Al Gore déclarait lors d’un discours à Minneapolis à propos d’Internet qu’il s’agirait d’un « moyen d’approfondir et d’enrichir nos valeurs universelles les plus anciennes et les plus prisées : relèvement du niveau de vie et du taux d’alphabétisation, progrès de la démocratie, de la liberté et de l’épanouissement personnel ».

Si cette déclaration peut aujourd’hui, en 2017, prêter à un certain cynisme, il faut la replacer dans son contexte. Nous sommes en 1998, l’Internet grand public que nous connaissons aujourd’hui n’en est encore qu’à un stade embryonnaire et porte en lui les espoirs de la création d’une « société du savoir », où informations et connaissances peuvent se diffuser librement aux quatre coins du globe.

Cette vision optimiste n’est pas étonnante : le progrès technologique a toujours été à la base de l’évolution des sociétés. La mécanisation apparue avec la machine à vapeur lors de la première révolution industrielle au XVIIIème siècle puis la découverte de nouvelles sources d’énergie ont permis la transition vers les sociétés dans lesquelles nous vivons aujourd’hui, profitant d’un niveau de vie sans précédent.

Mais cette vision optimiste s’explique d’autant plus par le fait que le progrès technologique s’appuie sur la recherche scientifique. La recherche scientifique a pour objectif l’explication et la compréhension de phénomènes réels à travers une méthodologie précise et objective : démarche hypothético-déductive, principe de réfutabilité, existence de communautés scientifiques autours de grands paradigmes. Les fondements même de la science sont démocratiques puisque la démarche scientifique repose sur le partage et la discussion des résultats obtenus à travers cette méthodologie, ainsi que l’ouverture à la critique de ces résultats s’ils venaient à ne pas être le produit de la méthodologie scientifique ou à être en contradiction avec le réel … Selon Al Gore, Internet devait alors être le fruit de la science qui allait servir de catalyseur vers une société plus scientifique et donc mieux éduquée, plus ouverte au progrès et plus innovante.

Pourtant, vingt ans après cette déclaration, le constat est amer et ce pour deux raisons.

La première vient de la science et de sa place dans la société aujourd’hui. On observe une défiance grandissante envers la science et les scientifiques. Cela se traduit par la remise en question de vérités scientifiques clairement établies et qui semblaient acquises : l’existence du réchauffement climatique, ou l’importance des vaccins dans l’éradication de certaines maladies qui étaient encore source d’une mortalité élevée au sein des populations il y a quelques décennies.

Il suffit de voir la position des Etats-Unis concernant les Accords de Paris, ou les réactions en France qui ont suivies l’annonce par la Ministre de la Santé Agnès Buzyn concernant les 11 vaccins obligatoires à partir de 2018 pour s’en convaincre.

Mais il est intéressant de constater que ces contestations ne proviennent pas de la sphère scientifique ! Elles trouvent leurs origines dans de petites communautés qui jouent sur la peur (comme c’est le cas des opposants aux vaccins, les AntiVax, qui trouvent un lien de causalité entre vaccin et autisme) ou sur la complexité d’une situation pour en générer de la confusion (les climato-sceptiques jouant sur l’existence de cycles climatiques ou l’origine humaine du réchauffement climatique pour remettre en question une littérature scientifique qui s’accorde à 97% sur l’existence du phénomène).

La seconde raison vient des évolutions que l’on peut observer au niveau du paysage politique mondial. On assiste aujourd’hui à la libération d’opinions « populistes » qui semblent rencontrer une adhésion de plus en plus forte : victoire de l’extrême droite en Allemagne, Autriche et République tchèque, présence du Front National au second tour des élections présidentielle française de 2017, victoire du « leave » au scrutin concernant la sortie du Royaume-Uni de l’Union Européenne, développement de l’« alt-right » aux Etats-Unis … Le point commun qu’ont toutes ces victoires est qu’elles ont été le terrain de diffusions massives d’informations fausses, notamment sur les réseaux sociaux, dans le but de créer un mouvement d’adhésion populaire.

Peut-être que le meilleur exemple faisant le lien entre ces deux tendances vient des Etats-Unis avec l’accession au pouvoir de Donald Trump comme 45ème du pays.

Après une campagne électorale où selon les fact-checkers 73% des informations étaient erronées, après un discrédit constamment porté sur les médias traditionnels par le biais de l’accusation « fake news », après une investiture marquée par le terme d’ « alternative facts », Donald Trump semble être la parfaite illustration de ce que certains appellent l’ère de « post-vérité » dans laquelle nous serions en train de vivre ; une ère où les faits et la vérité ne sont plus acceptés par tous, mais malléables à loisir des opinions de chacun.

Comment expliquer qu’alors qu’il devait être le vecteur de la diffusion de l’information et de la connaissance, Internet est devenu le véhicule principal du mensonge ?  

I – La transformation du paysage numérique.

Si les fausses informations ont toujours existé, il semble que le numérique ait transformé la manière qu’elles ont de se créer et de se diffuser. Pour expliquer cela, il convient de revenir dix ans en arrière.

Deux transformations de notre manière d’utiliser le numérique ont eu lieu en 2007, et la première vient des réseaux sociaux. 2007 est l’année qui voit Facebook devenir réellement populaire grâce à un fonctionnement différent des autres réseaux sociaux alors existants à l’époque.

Si des lieux de discussions existaient sur Internet sous la forme de blogs ou de forums spécialisés, Facebook est le premier réseau à réellement créer une connexion et une capacité d’interaction entre tous les utilisateurs du réseau : chaque utilisateur peut partager une opinion, un article ou une photographie et chaque utilisateur à la possibilité de réagir ou de relayer les publications de chacun. Ces réseaux sociaux créent une conscience sociale à Internet qui n’existait pas auparavant, et permettent à chacun de se créer une identité virtuelle qui va être le prolongement de l’identité réelle des utilisateurs.

2007 est aussi l’année qui voit la sortie du smartphone d’Apple ; l’iPhone. Si les fabricants de téléphones mobiles proposaient déjà des téléphones tactiles et pouvant se connecter à Internet, Apple est le premier fabricant à développer l’ergonomie de ce type d’utilisation et à le mettre en avant de manière marketing. C’est une réussite puisque l’iPhone va être le premier smartphone à rencontrer un succès commercial d’une telle ampleur, et va ouvrir la voie d’un nouveau marché aux constructeurs de téléphones mobiles.

En se popularisant, l’utilisation du smartphone va promouvoir un usage nomade d’Internet qui n’existait pas auparavant. Là où il fallait auparavant un ordinateur portable et une connexion Internet accessible, le smartphone permet de consulter ses mails à tout moment, d’avoir accès aux dernières actualités … et de se rendre ou publier sur les réseaux sociaux.

Ces deux innovations vont profondément transformer notre manière de concevoir et d’approcher le net en créant un réseau où les utilisateurs sont tous interconnectés et ont la possibilité de s’influencer en partageant du contenu : dernières sortie culturelles, opinions politiques, articles d’actualités, photos d’évènements … Tous ces éléments transitent maintenant sur une seule et même plateforme, permettant aux contenus et aux idées de circuler librement d’utilisateurs à utilisateurs, sans intermédiaire. Ce nouveau lieu d’expression dans le cyberespace va d’ailleurs permettre l’émergence de mouvements de contestation politique tels que les révolutions du printemps arabe, ou le mouvement Occupy Wall Street, d’initiative populaire et coordonnés grâce aux réseaux sociaux et en particulier Facebook.

De plus, le smartphone va rendre Internet et ces réseaux sociaux omniprésents et instantanés. Il est possible de publier, de consommer ou de réagir à du contenu en tout lieu et tout temps.

II – Algorithme et bulle de filtre.

Mais d’un monde où tout est connecté et immédiat en résulte de la complexité.

Gérer cette complexité est devenu une priorité pour les grands acteurs d’Internet, les GAFA (pour Google, Amazon, Facebook et Apple). L’explication est simple : le cœur de l’activité de ces grandes entreprises repose en grande partie sur un service en lien avec la gestion de l’information.

Google a pour but de vous proposer les résultats les plus pertinents selon vos mots-clés. Amazon a pour but de vous proposer le produit plus proche de vos attentes, le moins cher, avec les meilleurs avis et livré le plus rapidement possible chez vous. Facebook doit vous proposer le contenu le plus à même de vous intéresser et provoquer vos clics. Et la philosophie d’Apple est de vous permettre grâce à ses produits de communiquer de la manière la plus simple et efficace possible.

Pour arriver à ces résultats, les acteurs d’Internet utilisent la mise en relation de données pour produire des algorithmes qui vont filtrer les informations indésirables. Chaque utilisateur présent sur le web laisse des « traces » sur Internet, génère des données qui peuvent ensuite être récupérées et exploitées : selon les articles que vous avez lus, la musique que vous avez écoutée, les vidéos que vous avez regardées, les photos que vous avez consultées, un profil type de vos intérêts et aspirations peut être dressé. C’est ensuite ce profil type qui est utilisé pour vous proposer le contenu le plus à même de correspondre à vos attentes.

L’exploitation de ces données est un point critique pour ces entreprises du web car elles ne sont pas directement créatrices des produits qu’elles vendent ou des contenus qu’elles proposent. Elles tirent leur valeur de la collecte puis revente des informations personnelles à des tiers, ou à des annonceurs en proposant une publicité ciblée mettant en avant les produits ou contenus les plus pertinents pour chaque utilisateur et donc les plus susceptibles d’entrainer une rémunération.

Cette exploitation des données personnelles à travers des algorithmes est de plus en plus critiquée car accusée de distordre la perception qu’ont les individus de la réalité en favorisant certains biais cognitifs :

  • Le biais de disponibilité qui se définit par le fait que « les individus privilégient la recherche d’exemples facilement récupérables, ou disponibles en mémoire, pour juger de la probabilité d’un événement ou d’un objet». (Frédéric Martinez, 2010).
  • Le biais de confirmation qui se définit comme « les manières utilisées par des personnes pour éviter le rejet d’une croyance, que ce soit dans la recherche de preuves, l’interprétation, ou l’appel à la mémoire». (Jane Risen et Thomas Gilovich, 2007).

Ainsi apparait la « bulle de filtre », expression utilisée et décrite par Eli Parisier comme l’enfermement cognitif généré par l’utilisation d’algorithmes par les grands groupes d’Internet. Plutôt que de favoriser le débat ou de générer une émulation par la confrontation des points de vue, chaque utilisateur se voit proposer le contenu le plus à même de lui plaire car le plus à même d’apporter une rémunération aux annonceurs et à la plateforme. De cette manière par exemple, le contenu qui s’affiche pour un individu méfiant à l’égard des vaccins le confortera dans cette idée, tandis que le contenu qui pourrait l’amener à revoir ses positions sera filtré car n’allant dans les intérêts ni de l’utilisateur, ni de la plateforme, ni des annonceurs.

III – L’émotion comme générateur de réaction.

Mais on observe aujourd’hui de nouvelles stratégies élaborées par les créateurs et diffuseurs de contenus pour provoquer de l’intérêt et de l’engagement sur Internet.

Les manifestations les plus évidentes de ces stratégies viennent des médias dits « satiriques » tels que The Onion, ClickHole ou Le Gorafi et Nordpresse dans leurs versions francophones. Le but de ces médias est de publier des informations humoristiques et suffisamment trompeuses pour provoquer réactions et partages sur les réseaux sociaux, avec parfois des dommages collatéraux lorsque certaines institutions relaient ces informations sans en avoir saisi la portée satirique.

Sous leurs intentions humoristiques, ces médias proposent une critique d’un phénomène bien présent sur Internet et qui repose sur l’utilisation des émotions pour provoquer une réaction : un clic ou un partage, bien souvent générateur d’une rémunération.

Certaines techniques sont bien connues comme le principe du piège-à-clic popularisé par le site BuzzFeed qui joue sur la curiosité de l’internaute pour le pousser à cliquer sur un lien qui contient la réponse à une question contenue dans le titre d’un article. Cette technique est devenue si populaire qu’en 2014, Facebook a décidé à travers son algorithme de diminuer la fréquence d’apparition de ce type d’article dans le fil d’actualités de ses utilisateurs.

De manière générale, les émotions sont maintenant omniprésentes sur Internet et en particulier les réseaux sociaux. Les buzz sur Internet sont souvent le résultat de la provocation d’une émotion forte : colère et indignation lorsqu’il s’agit d’un « bad buzz », empathie et espoir lorsqu’il s’agit d’un « good buzz ».

Le problème est que l’émotion est devenu le mode de gestion et de diffusion de l’information qui guide la popularité de certains courants d’opinion, et c’est également le moyen le plus efficace de générer des revenus :  plus vous êtes émotif et plus vous êtes engagé, plus vous êtes engagé et plus vous cliquez, plus vous cliquez et plus vous générez des revenus pour les annonceurs.

En 2012, Daniel Kahneman, psychologue et prix Nobel d’économie publiait « Système 1 – Système 2 : Les deux vitesses de la pensée » dans lequel il décrit l’existence dans nos modes de pensée de deux systèmes gérant l’information de manières différentes :

  • Le premier système est basé sur l’émotion. Il est intuitif, rapide, efficace mais également à l’origine des nombreux biais cognitifs qu’il expose dans ce livre : biais de la représentativité, biais de confirmation, biais de la disponibilité, effet de récence ou d’ancrage …
  • Le second système correspond à notre esprit critique, notre capacité d’analyse et à prendre du recul pour considérer les choses sous un angle différent et à se remettre en question. Ce mode de pensée requiert un effort conscient, demande du temps et de l’énergie.

Internet et les réseaux sociaux sont aujourd’hui modelés pour parler au système 1 : un système ou l’information est directement accessible, filtrée pour directement plaire et pré-calculée pour directement faire réagir. Dans ce modèle sans nuance, l’instantané est la norme et le recul est complètement évacué.

Cela a bien été compris par certains utilisateurs et groupes sur Internet qui jouent volontairement sur certaines émotions fortes pour porter leur cause sur le devant de la scène à travers des comportements et points de vue stéréotypés : peur, méfiance, colère, haine, misogynie ou complotisme.

Conclusion :

Le monde dans lequel nous vivons doit faire face à des problèmes de plus en plus complexes : crise des réfugiés, menace terroriste, hausse de la compétition mondiale avec la mondialisation, perte de confiance envers la classe politique … Des problèmes qui demandent réflexion et débat démocratique au sein de la société en prenant en compte la variété de points de vue existants. Alors qu’Internet apparaissait comme un moyen qui allait aider à répondre à ces défis, la direction qu’il fait prendre à nos sociétés semblent être aux antipodes de ce qui avait été anticipé et on assiste aujourd’hui à une véritable prise de conscience de ce phénomène.

Ces interrogations ne sont pas seulement de l’ordre éthique ou moral :  avec les révélations d’une possible influence russe sur les élections présidentielles américaine et sur l’opinion en Europe, de l’existence d’une industrie des « fake news » en Macédoine ou de l’existence de campagnes d’ « astroturfing » servant à maquiller les intérêts des lobbies, la manière dont est créée et se diffuse l’information sur Internet et les réseaux sociaux revêt de forts enjeux en termes financiers, politiques et d’influence.

Il est donc important pour les citoyens autant que pour le monde des affaires de prendre conscience de l’existence de ces bulles de filtres et de l’impact de la charge émotionnelle afin de pouvoir créer une grille de lecture de l’information qui prend en compte ces facteurs, mais aussi de pouvoir créer des stratégies qui contrent efficacement ces mécanismes largement employés sur la toile.

Par Benoit Fournier, promotion 2017-2018 du M2 IESCI

Sources :

Coulon G., Lafitte C., (2016) De l’intelligence économique à l’intelligence émotionnelle dans l’entreprise : Une nouvelle méthode d’aide à la décision. France : Editions Maxima.

Grech, V., (2017) Early Human Development, Fake news and post-truth pronouncements in general and in early human development.

How a handful of tech companies control billions of minds every day | Tristan Harris : https://www.youtube.com/watch?v=C74amJRp730

http://www.courrierinternational.com/article/vu-des-etats-unis-les-alarmants-faits-alternatifs-du-president-trump

http://www.lefigaro.fr/secteur/high-tech/2017/06/08/32001-20170608ARTFIG00282-de-reseau-social-a-menace-pour-la-democratie-facebook-sous-le-feu-des-critiques-en-europe.php

http://www.lemonde.fr/actualite-medias/article/2016/11/01/facebook-faux-ami-de-la-democratie_5023701_3236.html

http://www.lemonde.fr/politique/article/2017/03/02/la-post-verite-a-une-histoire_5088375_823448.html

Huyghe, F-B., (2017) « Le front du faux », Médium, vol. 52-53, no. 3, pp. 186-198.

Kahneman D., (2012), Système 1 / Système 2 : Les deux vitesses de la pensée, Flammarion.

Levet J-L., (2001), Intelligence Economique, mode de pensée, mode d’action, Paris, Economica, collection l’IE.

Lewandowsky, S., et al. (2017) Beyond Misinformation: Understanding and Coping with the “Post-Truth” Era. Journal of Applied Research in Memory and Cognition.

Martinez, F., (2010) « L’individu face au risque : l’apport de Kahneman et Tversky », Idées économiques et sociales, vol. 161, no. 3, pp. 15-23

Patino, B., (2017) Pouvoirs de l’algorithme, Médium, vol. 52-53, no. 3, pp. 173-185.

S.K. Lee et al., (2017) Computers in Human Behavior 75, The effects of news consumption via social media and news information overload on perceptions of journalistic norms and practices.

Schmelk, C., Huyghe, F-B, de Biaisi, P-M., (2017) Globish Glossaire, Médium, vol. 52-53, no. 3, pp. 217-257.

L’article Information sur Internet : de l’utopie vers la dystopie ? est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Le malaise médiatique face aux réseaux sociaux https://master-iesc-angers.com/le-malaise-mediatique-face-aux-reseaux-sociaux/ Wed, 07 Dec 2016 11:09:36 +0000 http://master-iesc-angers.com/?p=1481 Au fur et à mesure du développement de nouvelles technologies de l’information et de la communication, nous nous situons dans un monde inondé d’informations, et en même temps l’information montre plus que jamais son importance pour l’être humain ainsi que… Continuer la lecture

L’article Le malaise médiatique face aux réseaux sociaux est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Au fur et à mesure du développement de nouvelles technologies de l’information et de la communication, nous nous situons dans un monde inondé d’informations, et en même temps l’information montre plus que jamais son importance pour l’être humain ainsi que pour les entreprises qui voudraient se développer dans le cadre de l’économie de la connaissance. Certes, les informations que nous avons reçues tous les jours ne semblent pas tout à fait justes, notre rapport à l’information est probablement déformé par les médias. Donc comment rester vigilant pour « les récepteurs des informations » est de plus en plus essentiel ?

Mots-clés : les médias, l’information, Facebook, la présidentielle américaine, les rumeurs.

1) Un monde inondé d’informations

Nous sommes immergés dans un monde de surinformation, il semble que la vitesse de transmission des informations soit plus rapide que celle du son. Donc si les informations sont diffusées par une telle vitesse, nous ne pouvons pas imaginer ce qu’il adviendra.  Lorsque nous nous levons le matin, nous commençons à nous connecter sur les réseaux sociaux, Facebook ou Twitter dans les pays occidentaux, WeChat en Chine, pour voir ce qu’il y a de neuf ou  est-ce que nos amis ont partagé des articles intéressants ? C’est vraiment facile de voir des informations partout et à tout moment grâce aux nouvelles technologies de l’information et de la communication. Aujourd’hui, les gens ont l’embarras du choix de lecture des informations et peuvent lire ce qu’ils aiment. Du coup, est-ce que nous avons réfléchi bel et bien sur ces informations ? D’où viennent-elles? Sommes-nous sûrs de ce qu’est notre réalité, de ce qui est vrai et juste, ainsi que de ce qui ne l’est pas ? Et pourquoi Facebook nous recommande toujours quelque chose qui s’adapte bien à nos goûts ? Il est certain que quelque chose est caché derrière ces phénomènes.

2) Des intérêts cachés derrière les informations biaisées

Pourquoi notre rapport à l’information est biaisé ? Face à l’accroissement du gros besoin des informations et à de nombreux concurrents médiatiques, beaucoup de médias ne se contentent plus de jouer leur rôle traditionnel. Le biais des médias est devenu de plus en plus visible.

En premier lieu, l’audience et le trafic du site web sont un biais important. Des médias déforment des informations en exagérant les faits pour attirer plus l’attention du public. Par ailleurs, les médias sont enclins aux informations qui peuvent faire peur des gens ou qui attirent leurs intérêts, c’est-à-dire que les 4 « S », le show business, le sexe, le sport et le sang sont des éléments plus vendeurs et bouleversants. Un grand nombre de visiteurs sur le site web peut également apporter des intérêts publicitaires pour les propriétaires du site. Par exemple, AdSense, lancé par Google, est un moyen simple et gratuit pour gagner de l’argent, selon l’analyse des visiteurs d’un site Web, Google va sélectionner les publicités en accord avec leur goût, et puis Google va payer les propriétaires du site.

En deuxième lieu, les agents médiatiques mobilisent l’opinion publique en publiant des points de vue égarés pour atteindre le but politique et ainsi que pour offrir un rendement à son ou ses propriétaires.

En citant l’exemple de la campagne présidentielle américaine, il est intéressant de noter que la majorité des acteurs médiatiques américains ont tendance à pencher à gauche vers Hillary Clinton, le plus notable étant le New York Times. C’est un quotidien new-yorkais distribué internationalement et l’un des plus prestigieux journaux américains. The New York Times a écrit un jeu de mots au cours de la campagne électorale américaine pour donner un coup à Hillary Clinton. Cette fois-ci il a publié beaucoup de propos biaisés afin d’égarer l’opinion publique et pour que Clinton puisse remporter la victoire et devenir présidente des Etats-Unis. En fait, ce n’est pas étonnant que le New York Times soutienne Hillary Clinton, car il était pour le parti démocrate depuis longtemps, et il ne change jamais sa position politique ! En tout cas, après l’échec d’Hillary Clinton, le New York Times fait quand même son mea culpa et promet d’informer plus honnêtement. Nous ne pouvons nous empêcher de douter de leur crédibilité…

Par ailleurs, de nombreux spécialistes ont réfléchi sur cette guerre de médias, l’un d’entre eux, c’est le cinéaste très fameux, Michael Moore, il a publié sur Facebook une liste de recommandations afin que le camp des démocrates puisse tirer les leçons de sa défaite, au lendemain de l’élection du républicain Donald Trump à la tête des Etats-Unis. Il a dénoncé que «virer tous les experts, les prédicteurs, les sondeurs et tous ceux dans les médias qui avaient un discours qu’ils ne voulaient pas lâcher et [qui] ont refusé d’écouter et de reconnaître ce qu’il se passait réellement».

Tout cela prouve que le média actuel n’est plus ce qu’il était. Chacun possède sa propre destination. Le public devient par contre un produit ciblé. Il a perdu son droit de connaître le monde réel.

3) Comment les médias forgent notre opinion en formant et déformant des informations?

Les médias sociaux ont biaisé l’opinion publique via deux formes principales, soit en offrant des informations déformées ou tout à fait fausses, soit en montrant des informations bien sélectionnées pour les lecteurs.

  • La propagation des rumeurs :

« Un mensonge peut faire le tour de la terre le temps que la vérité mette ses chaussures. »

Mark Twain

Sachant qu’il n’y a pas que les Etats-Unis qui ont ce genre de problème, Il en est même pour la Chine. Sur certains sites internet chinois, nous avons pu voir le résultat de l’élection présidentielle des Etats-Unis avant la fin des votes!

Par ailleurs, au cours des trois derniers mois de la campagne présidentielle américaine, Facebook devient un paradis de propagation des informations fausses, les nouvelles fausses de l’actualité électorale sur Facebook ont produit plus d’engagement que les principales histoires de grands médias tels que le New York Times, le Washington Post, le Huffington Post, NBC News et d’autres, selon une analyse de BuzzFeed.

Enfin, en citant un exemple qui est proche de la vie, une farce provoquée par la rumeur s’est passée le 30 septembre 2011 au nord de la France. Des centaines de lycéens provenant de différentes villes ont manifesté dans la rue pour contre le Ministère de l’éducation qui veut réduire un mois de vacances. Cependant, le Ministère de l’éducation a clarifié qu’il n’a jamais pris cette décision. En fait, quelqu’un a juste proposé de raccourcir 15 jours de vacances dans un rapport interne du Ministère de l’éducation, mais la proposition n’a pas été pas adoptée à la fin. Cette rumeur s’est diffusée rapidement sur les réseaux sociaux, et via SMS. Donc il nous faut faire très attention à la propagation des rumeurs, sinon, cela peut causer des troubles sociaux.

  • Les informations soigneusement sélectionnées pour les lecteurs

Nous voyons souvent que toutes sortes de sites web nous donnent des recommandations, ils sont peut-être les articles dont le sujet nous intéresse, ou les marchandises que nous préférons acheter depuis longtemps. Un service très humain peut faire plaisir aux clients, mais il existe également un problème caché. Cela signifie que les lecteurs ont perdu leur initiative, ce n’est plus nous qui choisissons les informations, mais les informations qui nous choisissent.

Par exemple, Amazon se consacre à la capitalisation des informations de ses clients pour proposer des produits en accord avec leurs goûts et leur faire gagner du temps bien qu’il ait déjà travaillé sur sa bonne compétitivité informationnelle (présence sur internet, site agréable et fonctionnel, livraison rapide, coût compétitifs…).

Après avoir cherché le livre Zero to one sur Amazon, le site m’a recommandé de parcourir les articles ci-dessous :

4) Des mesures prises par l’Etat et des propositions pour les individus :

Afin de résoudre ces problèmes plusieurs pays ont pris une série de mesures :

En France, certains internautes et journalistes ont créé volontairement un site web qui a pour objectif de traquer toutes les fausses rumeurs sur le web. De plus en plus de médias mettent en place des rubriques pour vérifier l’information comme les décodeurs du Monde.

En Espagne, le gouvernement forme les experts en donnant des cours sur la démolition des rumeurs et la protection de la sécurité d’internet.

Plusieurs pays ont établi des lois contre la propagation des rumeurs, comme la Chine, les Etats-Unis, l’Inde et le Singapour. Les juges vont condamner ceux qui produisent les rumeurs ainsi que ceux qui les diffusent sur internet.

Les individus doivent prendre  conscience de la crédibilité des informations en vérifiant si la source est autorisée ou non. Et la date de l’édition, pour ne pas lire des informations périmées. Il faut aussi faire attention au partage des informations.

En conclusion :

Nous n’avons pas le droit de nier absolument le statut des médias, il est sûr que les médias nous offrent une vie plus pratique. Mais puisque que les médias ont de plus en plus de mal à maintenir un équilibre, nous devons garder l’esprit clair nous-même, et avoir la capacité de faire la distinction du vrai et du faux face à un monde tellement complexe. En tant que personnes publiques, ils doivent prendre la responsabilité pour leur paroles et leur comportements, pour ne pasmanipuler l’opinion publique.

Par Ning Chen, étudiante promotion 2016-2017 du M2 IESC d’Angers

Sources :        

La conspiration du conformisme: comment les médias forment et déforment notre réalité :

http://www.mediashit.org/news.php?extend.13

The New York Times :

https://fr.wikipedia.org/wiki/The_New_York_Times

Après l’échec d’Hillary Clinton, le New York Times promet d’informer plus honnêtement :

https://francais.rt.com/international/28933-new-york-times-promet-dinformer-plus-honnetement

Facebook de Michael Moore :             

https://www.facebook.com/mmflint/posts/10153913074756857

This Analysis Shows How Fake Election News Stories Outperformed Real News On Facebook https://www.buzzfeed.com/craigsilverman/viral-fake-election-news-outperformed-real-news-on-facebook?utm_term=.maOGY0Vk04#.mxBGlXWKX7

Education. Rumeur : un mois de vacances supprimé ? Les lycéens dans la rue

http://www.letelegramme.fr/local/finistere-nord/morlaix/ville/education-rumeur-un-mois-de-vacances-supprime-les-lyceens-dans-la-rue-30-09-2011-1448660.php

Des mesures prises par plusieurs pays :

http://media.people.com.cn/GB/17670702.html

le site des « Debunkers des rumeurs/hoax d’extrême droite »

http://cqfd-journal.org/Internet-Demolir-la-rumeur

Cours de « Sources et information via Internet » Enseignant : Guillaume SYLVESTRE

 

L’article Le malaise médiatique face aux réseaux sociaux est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>