Big Data Archives - Master Intelligence Economique et Stratégies Compétitives Le Master Intelligence Economique qui combine analyse économique, outils de veille, e-réputation, gestion de crise et big data via une formation sur deux ans. Sun, 19 Mar 2023 19:16:31 +0000 fr-FR hourly 1 La place des mégadonnées dans la santé https://master-iesc-angers.com/la-place-des-megadonnees-dans-la-sante/ Sun, 19 Mar 2023 19:16:31 +0000 https://master-iesc-angers.com/?p=3666 Le domaine de la santé gère quotidiennement des quantités remarquables de données issues de systèmes d’information cliniques et opérationnels comme le dossier électronique du patient. Les professionnels de santé développent de nouvelles applications pour élargir considérablement les opportunités pour les… Continuer la lecture

L’article La place des mégadonnées dans la santé est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Le domaine de la santé gère quotidiennement des quantités remarquables de données issues de systèmes d’information cliniques et opérationnels comme le dossier électronique du patient. Les professionnels de santé développent de nouvelles applications pour élargir considérablement les opportunités pour les intervenants afin d’obtenir une plus grande valeur.

L’analyse Big data dans le domaine de la santé intègre des méthodes d’analyse de quantités considérables de données électroniques liées aux soins de santé des patients. Ces données sont extrêmement variables et difficiles à mesurer avec les logiciels et le matériel traditionnels. Il existe divers types de données de santé.

Ces données sont disponibles au sein de différents services de santé ou de sources externes (par exemple les compagnies d’assurance ou les pharmacies). Elles sont structurées (tableaux contenant les résultats des tests) ou non structurées (par exemple, le texte d’une lettre d’un médecin).

Le Big Data est reconnu par quatre caractéristiques, appelées 4V.

Les méthodes utilisées pour les mégadonnées font référence à de nombreuses outils.

Les informaticiens créent régulièrement de nouvelles applications pour aider les professionnels de la santé à développer des opportunités à plus forte valeur. Les organisations bâtissent également des infrastructures avec de grandes capacités en big data pour améliorer la prise de décision.

  • Le machine learning dans le domaine de la santé

Le machine learning est la technique d’analyse la plus appropriée pour de nombreux types de données et bénéficie d’un grand potentiel pour améliorer les résultats de nombreux domaines de recherche dans le domaine de l’analyse prédictive de la santé. Il facilite considérablement le développement de modèles centrés sur le patient pour améliorer le diagnostic et l’intervention. Le machine learning est une technique d’analyse de données qui automatise fortement la création de modèles analytiques. Les techniques de machine learning peuvent être utilisées pour intégrer parfaitement et interpréter notamment des données de santé complexes dans des scénarios où les méthodes statistiques traditionnelles échouent. Divers modèles de machine learning axés principalement sur la prédiction des risques sont généralement évalués afin que le modèle le plus précis soit sélectionné.

Le machine learning est important dans chaque phase du big data.

Les algorithmes du machine learning se sont révélés utiles dans le diagnostic médical, comme la détection du diabète, où des modèles prédictifs plus précis sont nécessaires. Et dans des domaines médicaux comme l’oncologie, où la reconnaissance des formes est importante, comme la radiologie.

  • Analyse des mégadonnées

Le Big data sont des données si volumineuses qu’elles ne peuvent pas être traitées par l’informatique de santé traditionnelle en tant que « système autonome » à l’aide d’un simple logiciel d’analyse. Dans ce contexte ce qui est nécessaire, c’est un modèle plus complexe, à programmation intensive, avec une immense variété de fonctionnalités. La plate-forme open source Hadoop est une référence en la matière.

Le cas d’Hadoop

Un cas d’utilisation de l’écosystème Hadoop est présenté dans une brillante étude de Batarseh et Latif (2016) qui a créé un outil appelé CHESS. CHESS déplace les ensembles de données téléchargés vers Hadoop et place les données agrégées avec beaucoup moins de lignes dans les serveurs SQL pour l’analyse. Par la suite, les utilisateurs y accèdent via le logiciel statistique de leur choix (Excel, Tableau, R, etc.), transforment les données dans le format souhaité. Puis exécutent des tests statistiques pour déterminer l’importance de certains facteurs (par exemple, la démographie) en lien avec certaines données de santé.

L’application s’appuie sur Hadoop pour gérer notamment les problèmes de mégadonnées, permettant aux utilisateurs d’interroger uniquement de petites quantités de données avec un logiciel statistique.

Une nouvelle approche a été trouver en 2016, pour favoriser le contenu des données de santé non structurées. Ainsi engendrer la récupération et le traitement de données de santé structurées et non structurées pour des examens de santé personnalisés. Il s’agit d’une amélioration, car la plupart des applications se limitent à interroger uniquement des données médicales structurées.

En effet, lorsqu’il s’agit de traiter des images médicales et des dossiers médicaux, il importe des logiciels et des plateformes basés sur le cloud tels que LifeImage, qui peuvent partager et acquérir des images médicales volumineuses et d’autres dossiers médicaux. Cependant, il se limite à utiliser des données structurées (par exemple, interroger le poids du patient), à acquérir toutes les images et tous les enregistrements pertinents et à traiter des données non structurées. Certaines des limitations techniques qui ressortent des ensembles de données sur l’environnement Hadoop est que le contenu non structuré des données de santé et des images médicales ne peut pas continuellement être traité de la manière souhaitée.

Une telle approche favorise davantage les professionnels de la santé à bénéficier d’une aide à la prise de décision à partir d’algorithmes automatisés.

Conclusion

Les sources de données volumineuses et des techniques analytiques permettent notamment aux capacités de données volumineuses d’engendrer davantage de valeur. Cela sera davantage facilité par de nouvelles recherches dans ce domaine.

En particulier, le machine learning est la technique la plus couramment appliquée à tous les types de données créées, bénéficiant d’un grand potentiel d’amélioration des résultats. Et ceci, dans de nombreux domaines de recherche dans le domaine de l’analyse prédictive de la santé. Le machine learning est décrit comme un domaine complexe proposant de nombreux types d’outils, de techniques qui peuvent être utilisés pour relever les défis posés par la fusion de données. Par ailleurs, il est également apparent que toutes les technologies appliquées sont utilisées de façon différente dans le big data. Élaborant ainsi des capacités différentes dans le secteur de la santé. Les données cliniques étaient la source la plus couramment utilisée pour l’analyse des données (70 %).

En se basant sur la présentation du logiciel basé sur Hadoop. Cette analyse confirme que les professionnels de santé utilisent principalement des données cliniques ou médicales structurées ou non structurées dans leurs recherches pour développer de nouvelles approches de bilans de santé personnalisés. Par ailleurs, Hadoop permet de concevoir également des modèles commerciaux pour réduire le temps et les coûts de recherche et de traitement tout en maintenant la qualité des données.

Il existe un besoin évident dans le domaine de la santé pour soutenir activement ou améliorer considérablement les capacités de prise de décision des professionnels cliniques. Notamment pour diagnostiquer des maladies et des conditions complexes. Un problème majeur avec les mégadonnées dans le domaine de la santé est que la plupart des données sont souvent non structurées. Cela signifie clairement qu’il existe des obstacles au traitement informatique de la plupart des données. Les experts cliniques s’efforcent donc constamment de développer davantage l’infrastructure pour une analyse la plus efficace possible.

Par Nawel Zenasni, promotion 2022-2023 du M2 IESCI

Références bibliographiques

  • Bendahou, M. (2018). Objets Connectés et Big Data au service de l’E-santé. UNIV EUROPEENNE.
  • Bertucci, F., Le Corroller-Soriano, A. G., Monneur, A., Fluzin, S., Viens, P., Maraninchi, D., & Goncalves, A. (2020). Santé numérique et « cancer hors les murs » , Big Data et intelligence artificielle. Bulletin du Cancer107(1), 102‑112. https://doi.org/10.1016/j.bulcan.2019.07.006
  • Wyber, R., Vaillancourt, S., Perry, W., Mannava, P., Folaranmi, T., & Celi, L. A. (2015). Big data in global health : improving health in low- and middle-income countries. Bulletin of the World Health Organization93(3), 203‑208. https://doi.org/10.2471/blt.14.139022
  • Béranger, J. (2016). La valeur éthique des Big data en santé. Les cahiers du numérique12(1‑2), 109‑132. https://doi.org/10.3166/lcn.12.1-2.109-132
  • Reza Soroushmehr, S. M., & Najarian, K. (2016). Transforming big data into computational models for personalized medicine and health care. Dialogues in Clinical Neuroscience18(3), 339‑343. https://doi.org/10.31887/dcns.2016.18.3/ssoroushmehr
  • Rial-Sebbag, E. (2017). Chapitre 4. La gouvernance des Big data utilisées en santé, un enjeu national et international. Journal international de bioéthique et d’éthique des sciences28(3), 39. https://doi.org/10.3917/jib.283.0039

Vidéos :

  • Cité des sciences et de l’industrie. (2020, août 5). Big data et santé[Vidéo]. YouTube. https://www.youtube.com/watch?v=s8MMg2ps1i0
  • France Culture. (2021, 17 septembre). Santé : promesses et dangers du big data[Vidéo]. YouTube. https://www.youtube.com/watch?v=Ykyy_yNufkA

L’article La place des mégadonnées dans la santé est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Big data et éthique en santé : état des lieux en France https://master-iesc-angers.com/big-data-et-ethique-en-sante-etat-des-lieux-en-france/ Wed, 21 Apr 2021 13:52:39 +0000 https://master-iesc-angers.com/?p=3450 Aujourd’hui de plus en plus d’innovations et technologies révolutionnaires voient le jour. Ces technologies ont le potentiel de considérablement changer notre façon de vivre dans les années qui viennent. L’une d’entre elles est le Big Data, et toutes les technologies… Continuer la lecture

L’article Big data et éthique en santé : état des lieux en France est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Aujourd’hui de plus en plus d’innovations et technologies révolutionnaires voient le jour. Ces technologies ont le potentiel de considérablement changer notre façon de vivre dans les années qui viennent. L’une d’entre elles est le Big Data, et toutes les technologies et logiciels qui reposent sur celle-ci. Un des secteurs qui pourrait potentiellement être l’un des plus affectés par les technologies du Big Data, est le secteur de la santé. Les enjeux ici sont extrêmement importants, il s’agit de la vie et de la santé de tous.

Mais qu’est-ce que le Big Data exactement ? Ce terme étant si souvent employé, sa compréhension de celui-ci peut être floue et nous échapper. La CNIL définit le Big Data, un ensemble de données massives. Plus précisément, ces données doivent répondre à plusieurs critères, appelés couramment les 3V, qui sont le volume, la variété et la vélocité.

Certaines définitions ajoutent d’autres critères, mais ceux-ci varient en fonction des définitions. Seuls les 3V restent constants.

Cette technologie révolutionnaire commence déjà petit à petit à faire sa place dans le secteur de la santé, et les prospects futurs de son utilisation sont déjà pensé et recherché. Son utilisation n’est pas encore massive, mais c’est une part grandissante dans ce secteur. On parle par exemple en France, de l’instauration d’un Health data Hub. Il s’agit d’une base de données médicale de santé commune à tous les Français, qui reposerait sur les technologies du Big Data. Elle regrouperait toutes les données de santé des français, de manière anonyme, et permettrait de faciliter la recherche médicale

Cependant, malgré des avantages clairs de son utilisation, les règles qui entourent le Big Data dans le secteur de la santé ne sont pas strictement définies, et cela comporte des risques, physique, morale et éthique. Nous posons donc la question, quels sont les moyens d’intégrer l’éthique dans l’e-santé ? Pour ce faire, nous définirons d’abord l’environnement qui l’entoure, puis nous montrerons pourquoi et comment faire de l’éthique dans le domaine de la santé, et enfin nous verrons une étude de cas avec la covid-19

 Cadrage de l’environnement de la E-Santé

L’émergence de la e-santé

L’usage du numérique dans le secteur médical, en somme : l’informatisation des tâches administratives et protocolaires a progressivement permis une meilleure organisation des données de chaque patient avec une accessibilité permanente, rapide et peu onéreuse à internet qui sera à l’origine de changements importants.

La santé est un secteur sous haute pression si l’on décrypte les données de l’OCDE en raison d’un vieillissement de la population qui augmente de plus en plus  le taux de personnes sous traitement, des traitements qui aujourd’hui se renouvellent grâce à la data mais qui coûtent plus cher malheureusement dans un contexte où les Etats ont tendance à vouloir réduire leurs dépenses.

C’est dans ce contexte que l’on introduit le concept de la e-santé. En effet, la e-santé est une sphère très vaste qui englobe des activités, des pratiques médicales définis par des lois et réglementations, cela concerne également tout ce qui touche aux objets connectés pour la santé et le bien-être, les systèmes d’information des hôpitaux, la télé-surveillance (patient à domicile, prévention des chutes), des outils de formations à destination des professionnels. Le marché de la e-santé aujourd’hui pèse près de dix trilliards de dollars divisés en plusieurs parties avec un bon nombre de sous domaines très pointues et précis comme celui des assurances, des pharmacies, robots chirurgiens ou encore télémédecine.

Le marché de la e-santé est très lucratif, il pèse aujourd’hui près de dix trilliards de dollars.

C’est en raison de cette diversification si large qu’il est nécessaire de segmenter en catégories les différents champs qu’intègre la e-santé. Elle est née suite au besoin d’améliorer le suivi et la documentation de la santé des patients ainsi que leurs procédures avec par exemple les compagnies d’assurances. Si traditionnellement, les soignants se devaient de conserver des dossiers sous format papier des historiques et statuts de leurs patients, la hausse des coûts des soins de santé et progrès technologique ont permis l’émergence de nouveaux systèmes de suivi électroniques. La plupart des informations sont fournies par le biais d’une série d’objets numériques interactifs, entre autres, bon nombre d’appareils mobiles modernes sont conçus avec des capacités informatiques de renseignement personnel qui sont compatibles avec des applications téléchargeables qui permettent donc aux utilisateurs d’accéder de manière instantanée à des informations de santé.

Le mariage entre big data et santé

Étant une innovation majeure sans réelles antécédents, son impact s’effectue sur le tas et son établissement sur de plus en plus de domaines d’activités laisse entrevoir les changements qui vont apparaître dans le futur. Ainsi son usage progressivement globalisé signifie que les organismes commencent à réaliser l’importance d’une analyse optimale des données, en l’occurrence ici : des données de santé.

L’information est de nos jours un facteur clé pour de nombreux secteurs d’activités, plus les informations à disposition sont importantes et plus l’organisation s’établit de manière optimale afin d’obtenir de meilleurs résultats. Dans le secteur de la santé aujourd’hui, de nombreuses données dans des datacenters stockent des dossiers médicaux et hospitaliers, des résultats d’examens ou encore des recherches sur le biomédical.

 

Les organisations de santé produisent des données à rythme très rapide qui soulèvent à la fois plusieurs défis et avantages. Avec l’apparition et l’évolution des systèmes informatiques, la numérisation des documentations et autres procédures, de nouveaux termes émergent tels que les logiciels de gestion de la pratique médicales, les dossiers de santé électroniques (DSE) ou les dossiers médicaux électroniques (DME) qui recueillent les données médicales et cliniques auprès des clients. Ces nouvelles entités de documentations ont collectivement le potentiel d’améliorer l’efficacité des services et les coûts des soins tout en réduisant les erreurs médicales. Ainsi l’utilisation et la gestion des données de santé dépendent de plus en plus des technologies de l’information.

Au sein de cette sphère, l’on verra progressivement s’établir diverses catégories d’acteurs dont les interactions et fonctions forment aujourd’hui un écosystème de la e-santé à la fois complexe et structuré de telle sorte à pouvoir servir aux intérêts de chacun d’eux.

L’écosystème des données de santé en France

Le projet Health Data Hub, une technologie nécessaire mais très controversée

En France, la question de la gestion des données de santé relève des différents registres et répond à deux fins distinctes. Tout d’abord nous avons une finalité scientifique, dans cette optique il s’agit de collecter et regrouper toutes les informations médicales des patients en France afin de créer une grande base de données que l’on pourra exploiter et traiter à des fins de recherche. Cette base de données va donc permettre de monter des projets de recherche pour améliorer la qualité des soins et traitements ainsi que d’enrichir les connaissances sur les diverses maladies. C’est dans cette logique qu’a été créé le très controversé Health Data Hub. Autour de ce sujet interagissent de nombreux acteurs qui cherchent à se faire entendre.

En premier plan nous avons la Commission Nationale de l’Information et des Libertés, la CNIL qui se préoccupe fortement des modalités de mise en place d’un projet de regroupement des données de santé des citoyens français. Dès la création officielle de la Plateforme des Données de Santé le 29 novembre 2019, la Cnil s’est tenue d’avertir des potentielles dérives et entraves aux libertés individuelles dû au caractère hautement sensible des informations collectées. Avec l’accélération du développement du projet HDH ces risques ont progressivement pris forme et la CNIL a cherché à empêcher le développement du projet dans sa forme actuelle en publiant un mémoire le 9 octobre 2020. Dans ce mémoire la commission exprime avant tout une préoccupation quant à l’hébergeur des données, celui-ci selon la CNIL doit impérativement être une entreprise européenne afin d’éviter tout transfert de données hors du continent.

Accompagnée par de nombreuses associations de médecins, la CNIL recourt à maintes reprises au conseil d’Etat qui malgré tout invalide sa demande de retirer la responsabilité d’hébergement du HDH à Microsoft via son cloud Azure. Bien que les différents représentants politiques, comme le ministre de la santé Olivier Véran, ont reconnu le risque d’hébergement des données par Microsoft, ils n’envisagent pas cependant de retirer la responsabilité à ce dernier d’aussi tôt. En effet, le changement d’hébergeur prendra deux ans selon le gouvernement. Le risque d’exploitation malintentionné continuera de peser encore longtemps sur nos données privées.

Le changement d’hébergeur prendra deux ans selon le gouvernement. Le risque d’exploitation malintentionné continuera de peser encore longtemps sur nos données privées.

Un autre acteur intervient également en scène, le collectif InterHop, une association regroupant des spécialistes en santé, des experts dans le digital et les systèmes d’information tous militants pour les logiciels libres et pour une utilisation autogérée des données de santé à l’échelle locale. Cette association publie le 15 décembre 2020 une tribune visant à attirer l’attention du gouvernement sur la vulnérabilité du système HDH. L’objectif de cette tribune est notamment de faire valoir l’intérêt des fournisseurs de service nationaux et européens et de montrer qu’ils sont aptes à assurer l’hébergement des données européennes.

C’est également l’idée autour de laquelle a été monté le projet du cloud européen et souverain, le projet GAIA-X. Ce projet a pour objectif de mettre fin à la vulnérabilité des entreprises européennes face à l’exploitation de leurs données sous la loi du Patriot/Cloud Act.   Cependant malgré son ambition ce projet soulève lui aussi certains doutes. L’entreprise Palantir spécialisée dans la visualisation des données entre en partenariat avec le projet GAIA-X, ce qui suscite de nombreuses critiques car l’entreprise américaine est connue pour sa proximité avec la CIA. Il y a là une forte contradiction entre le principe central du projet et le choix des partenaires pour la réalisation de celui-ci, ce qui risque de fortement ternir l’image d’un projet pourtant prometteur.

Revenant à la polémique autour du HDH, le Groupe Open, chargé de développer ce projet, soutient l’idée que la plateforme de données de santé incarne l’ambition de la souveraineté numérique française et ne semble pas perturbé par le choix de l’hébergeur Microsoft et affirme que “l’écosystème numérique français s’est aussi construit avec des technologies d’entreprises internationales, à condition qu’elles se conforment à nos valeurs et accèdent aux obligations normatives, comme de ne pas avoir accès aux données stockées.”

Tout récemment Microsoft Azure a élaboré un nouveau service de cloud pour les données classées secret défense. Cette solution a été conçue sur mesure pour le gouvernement américain, preuves que quand il s’agit de la défense des intérêts nationaux la question de la sécurité prime avant tout.

Finalement le nécessaire besoin de renforcer la protection des données de santé au sein de la plateforme a été reconnu et le Secrétaire d’État chargé de la Transition numérique et des Communications électroniques, Cédric O a annoncé déjà chercher des alternatives à la solution Azure de Microsoft.

Mais pour autant le développement de la plateforme n’a pas été figé, en raison très certainement des besoin urgent de la gestion de la crise sanitaire (rappelons le, initialement le lancement du projet de données médicales centralisées sur une plateforme a été accéléré de trois mois en raison de la pandémie). Au début de ce mois la CNIL a autorisé six projets de recherche sur la base des données du HDH dont 3 portants sur la Covid-19.

Constatant l’hésitation gouvernementale aux revendications de l’opinion publique les acteurs français ont à leurs tours décidés de saisir l’opportunité. Il s’agit là de l’alliance d’Atos avec OVH Cloud pour former une solution multicloud 100% européenne. La solution se présente comme une plateforme à guichet unique proposant une multitude d’offres regroupées selon les besoins des clients.

Les deux entreprises font déjà partie du projet Gaia-X et contribuent à la constitution des standards communs de cloud computing. OVH Cloud vient tout récemment d’obtenir la certification d’hébergeur de données le « SecNumCloud » pour sa solution de cloud privé « Hosted Private Cloud » délivrée par l’Agence nationale de sécurité des systèmes d’information (ANSSI). Avec cette certification le groupe peut à présent prétendre à la place de Microsoft dans le projet HDH, car en effet le portefeuille de label de sécurité et de souveraineté lui permet de répondre aux besoins divers et variés des organisations publiques et privées.

Les deux entreprises françaises entendent bien donner du fil à retordre aux géants californiens de la tech en répondant à un réel besoin de contrôle sécurisé des données privées. Cette alliance stratégique représente l’espoir du cloud souverain européen car l’objectif est d’assurer l’infrastructure la plus respectueuses possible des données et ceux en unissant leurs infrastructures (130 datacenters à travers le monde).

Orange Healthcare et Enovacom

Outre les fins scientifiques et de recherche, les données de santé sont aussi générées et forment des flux dans une logique opérationnel comme dans le cas d’envoi de bilans de santé, prise de rendez-vous et autres informations médicales.

Dans le domaine de la e-santé et du stockage des données gravitent aussi de tels acteurs nationaux comme le service de santé de Orange Business, Orange Health Care. Depuis le premier octobre 2020 Enovacom, une entreprise marseillaise est chargée de regrouper et développer les offres de Orange dans le domaine de la santé. C’est ainsi que, certifié HDS (Hébergeur de Données de Santé) Orange Healthcare a conclu avec la French Tech de l’IoT, Bewelle Connect un contrat pour héberger ses données générées par les objets connectés.

Une plateforme de prise de rendez-vous médicaux qui a le vent en poupe, Doctolib

Un autre acteur important de l’écosystème est ayant accru sa notoriété durant la pandémie est le service de prise de rendez-vous médicaux Doctolib. Selon cette plateforme “Pendant le confinement, le nombre de téléconsultations a été multiplié par 100. Aujourd’hui encore, il resterait 30 fois plus élevé qu’avant la crise du coronavirus.” Cet accroissement de l’utilisation a attiré l’attrait de l’entreprise notamment de la part des hackers qui lui ont volé le 23 juillet 6000 données de prises de rdv.  L’enjeu de protection et de confidentialité devient donc crucial et la pépite française a entrepris de renforcer les mesures de sécurité, elle a fait tout récemment appel à l’entreprise Tanker pour assurer le plus haut niveau de cryptage de ses données. Cependant là aussi revient la question de l’hébergement de ses informations. Bien qu’impératif, selon la réglementation du RGPD, Doctolib ne souhaite pas divulguer le nom de son ou ses hébergeurs.  Selon certains experts l’hébergeur serait Amazon avec sa solution Amazon Web Service.

Comme nous l’avons vu, l’univers du Big Data en santé est complexe, les acteurs sont très nombreux et ceux présentés ultérieurement ne forment pas une liste exhaustive. Le domaine de la gestion des données de santé (toujours plus nombreuses) comprend de multiples problématiques touchant aux sphères de la jurisprudence (avec la protection des données personnelles et les libertés individuelles), de la cybersécurité (avec les problématiques de fuite et de vol de données, ou encore de leur transfert à des entités tiers). Mais il convient de ne pas oublier l’aspect éthique de la question également car en effet les informations sur les patients font objet de secret médical. La question se pose alors : comment exploiter et traiter les données de santé pour en tirer une utilité maximum tout en garantissant une manipulation éthique de celles-ci.

Quel lien entre éthique, big data et e-santé ?

Les limites des technologies du Big Data

Les technologies du Big data sont extrêmement utiles et, à travers leur fonctionnement, offrent la possibilité d’octroyer des services personnalisés. Ces services personnalisés sont basés sur des modèles capables de prédire un bon nombre d’évènements et de comportements, en fonction des données qui nourrissent l’algorithme avec lequel elles fonctionnent. L’influence des technologies du Big Data s’étend à bon nombre de secteurs. Toutefois la nouveauté et la rapidité à laquelle se propage cette technologie pose différents types de challenges aux différents secteurs impliqués. Notamment dans le secteur médical, qui vise à utiliser ces technologies pour la médecine personnalisée/de précision grâce à la médecine prédictive.

Le conflit entre potentiel et réalité

Les promesses diffusées par les promoteurs des technologies du big data doivent être remises au goût du jour afin d’éviter des désastres futurs. Certaines de ces promesses sont le développement rapide de la médecine personnalisée, et des diagnostics automatisé basé sur les données massives récolté. Les modèles qu’on nous présente aujourd’hui ou qui sont promulgués ne passent pas nécessairement par les tests et les étapes nécessaires. Les études derrière ces technologies, afin de prouver leur efficacité, seraient trop laxistes pour la plupart.

Certains modèles ne seraient pas testés dans des environnements variés, ce qui n’est pas réaliste par rapport à ce qui peut être demandé par un médecin en clinique. De plus, une fois confrontées à des situations inconnues, ces machines doivent repasser par une phase d’apprentissage, à l’instar de l’algorithme de Google déployé en Thaïlande afin de repérer la rétinopathie diabétique via des images rétine, lorsqu’il a rencontré des difficultés à effectuer sa tâche correctement une fois que la luminosité était faible.

La promesse de médecine personnalisée est aujourd’hui, et sera peut-être pour toujours impossible à réaliser. En effet les technologies du Big Data tel qu’on les connaît sont trop limitées et n’apportent pas, contrairement à ce qui est répandu, une solution infaillible. Celle-ci est limitée dans plusieurs aspects.

Premièrement l’impossibilité pour les modèles de faire une distinction entre cause et effet par la simple observation de données. L’inférence causale est une grande partie de la médecine mais reste hors de portée de la machine. L’inférence causale nécessite de faire des suppositions, alors que les algorithmes sont tous programmés pour faire des prédictions, c’est-à-dire, arriver au résultat le plus plausible à travers les données statistiques récoltées.

Une autre limitation est que la complexité des états de santé ne peut être comprise que par la probabilité. Les probabilités ne permettent pas d’avoir des certitudes, et n’arrivent qu’au mieux à réduire le doute a un petit groupe de possibilités et non à un unique individu. Par exemple, si on lance deux dés, on connaît la valeur la plus probable (sept) et on connaît à 100% la probabilité des autres possibilités, cependant, tout cela ne nous révèle rien sur le résultat du prochain lancé. Dans ce cas, la médecine personnalisée (de précision) est impossible, même dans le cas où les modèles arrivent un jour à faire de l’inférence causale.

Une mise en œuvre massive de ces technologies sans en comprendre les rouages, limitations et autres, pourrait causer des désastres pour certains patients. Intégrer l’éthique dans les technologies du Big data et leurs utilisations serait un moyen de ralentir les ambitions des différentes parties afin d’avoir les meilleurs modèles possibles. Ce qui n’auront pas pour but le remplacement des médecins, ni des performances surréalistes, qui mettent potentiellement en péril la vie des patients, mais des technologies visant à l’amélioration des soins et l’assistance au médecin.

Le manque de régulation sur les technologies du Big Data : l’exemple du Health Data Hub

De plus, les règles qui régissent le big data sont loin d’être exhaustives et ce manque de rigueur amène des problèmes éthiques qui sont des dilemmes pour les utilisateurs. Avec l’intensification de l’utilisation de ces outils dans le secteur médical, beaucoup de droits inhérents à ce service se voient bafoués. Même si ces technologies sont extrêmement utiles pour la surveillance des variations de l’état des malades, elles restent toutefois sensibles et ne devraient jamais être à la disposition de personnes mal intentionnées. Rythme cardiaque, température, taux de cholestérol, grâce au Big Data, toutes ces données peuvent être collectées et étudiées de manière quasi immédiatement permettant notamment des interventions d’urgence.

Les données de santé sont probablement, parmi toutes les autres données qualifiées de « nouveau pétrole », les plus sensibles et donc lucratives pour ceux qui les convoitent. Leur sécurité devrait donc être la priorité numéro 1 des décideurs.

Malheureusement, elles sont souvent hébergées par des acteurs ne respectant pas les droits fondamentaux des patients.  Le droit au consentement à l’utilisation des données par exemple, n’est pas toujours demandé. Plusieurs plateformes fonctionnent sous le principe de consentement présumé. Ce principe implique que tout utilisateur, dès lors qu’il s’inscrit sur la plateforme concernée, est présumé donner son accord sur l’utilisation de ses données. Le seul moyen de se défaire de ce consentement présumé, est de lancer des démarches, souvent ardues et pénibles.

De plus, les options qui permettent de prendre connaissance de la manière dont sont utilisées nos données sont souvent rédigées de manière à dissuader la lecture. Ces restrictions forcent les utilisateurs qui ne veulent pas partager leurs données à, soit chercher des alternatives, la plupart du temps peu appropriées, ou à faire face à un manque d’alternatives. Dans ce cas l’option de consentement n’est plus une option mais une obligation. Ce processus fait en sorte que l’on est au final obligé d’accepter au moins une certaine exploitation par manque d’alternative.

Ce problème est encore plus prononcé dans le secteur de la santé où la valeur de ces données surpasse celle des autres. En effet, en connaissant l’état de santé d’un individu, on peut en déduire beaucoup sur ses envies. Les entreprises sont donc friandes de ce genre de données et des opportunités de se les octroyer. De plus, les États n’étant pas toujours bien informés sur le sujet sont susceptibles de prendre des décisions mettant en péril la sécurité des données de leurs citoyens. Un exemple qui reflète parfaitement ce dilemme est justement l’instauration du Health Data Hub en France.

Le Health Data Hub (HDH) est une initiative de l’État français. Il s’agit d’une plateforme sur laquelle sera récolté et rassemblé toutes les données de santé des Français. Les données sont stockées de manière anonymisée/pseudonymes.  Ces données sont mises au service de la recherche afin d’en sortir des tendances, par exemple de quoi les Français souffrent majoritairement. Cela permettrait aussi des avancées considérables en terme scientifique. Les personnes ayant accès à cette plateforme sont théoriquement restreint aux professionnels de santé et aux chercheurs.

Mais il est possible de déroger à cette règle et d’avoir l’accès aux données sous la condition de l’intérêt public. C’est là que l’on rencontre l’une des critiques majeures du HDH. L’intérêt général est une notion extrêmement vague et difficile à bien définir. Sous la condition de l’intérêt général, n’importe qui peut avoir accès aux informations des français, du moment qu’ils arrivent à prouver que leur cause répond celui-ci. Par exemple, des entreprises, ou des assureurs qui réussissent à avoir accès à ces informations, pourront les utiliser à des fins purement économiques.

Par exemple, elles seraient utiles pour le lancement d’opérations marketing basées sur les données qu’ils avaient pu récupérer lors de leurs accès. Il s’agit ici d’une violation indirecte de la vie privée (les données étant anonymes). De plus, l’anonymat, avec les technologies de nos jours, n’est plus une garantie de sécurité. Il devient en effet tous les jours plus facile de tracer et récupérer l’identité des individus.

La souveraineté numérique et le consentement remis en question

Un autre point de contention est le lieu de stockage des données. Comme nous l’avons vu, le HDH est logé sur Microsoft Azure. Il s’agit ici d’une plateforme appartenant à Microsoft, une entreprise américaine, et une des GAFAM, qui sont connues pour leurs capacités à collecter les données de leurs utilisateurs. De ce fait, le problème d’extraterritorialité des lois américaines entre en jeu, et fait face à la souveraineté numérique de la France. L’Etat français ayant déjà fait les frais de l’extraterritorialité américaine plusieurs fois, lors de l’affaire Alstom par exemple, devrait se tenir sur leur garde.

Ici, la France risque de perdre le contrôle des données de ses citoyens au profit des Etats-Unis. En effet, les données, logées sur une plateforme d’origine américaine, sont susceptibles d’être rapatriées au pays. Cette clause fait partie du Cloud Act que l’ancien Président Donald Trump a signé en 2018.

La France risque de perdre le contrôle des données de ses citoyens au profit des Etats-Unis à cause du Cloud Act.

Dernièrement, le HDH fonctionne sous le principe de consentement présumé. Ceci est un autre des points gênant du HDH car même les personnes ne voulant pas y participer pourraient se retrouver par mes gardes dans la base de données et potentiellement voir leur donnée transférée et exploitée par les Etats-Unis. Même si la Cnil dénonce et sonne la sonnette d’alarme, et que ce genre de mesure est en violation avec le RGPD, on constate une certaine passivité au niveau de l’État, ce qui en plus d’une communication très faible sur le sujet, n’inspire pas confiance sur les raisons de l’installation d’une telle plateforme.

Ce manque de rigueur dans l’établissement de règles claires et strictes autour du sujet, est un signe de laxisme excessif de nos institutions. La question d’éthique n’est pas prise au sérieux, cependant, c’est une question à laquelle il faudra répondre tôt ou tard. L’établissement ne serait-ce que d’une simple charte permettra potentiellement d’éviter de nombreux problèmes futurs liés à ce sujet.

Plus globalement, la vitesse à laquelle se développent et se propagent les technologies dépasse largement les capacités cognitives des utilisateurs. Ceux- ci se sentent de plus en plus emportés dans le tourbillon de l’innovation et du progrès sans avoir le temps de se poser les questions fondamentales : celles de leurs « privacy », de leur liberté de disposer de soi-même et de leurs informations confidentielles. Les exemples où les utilisateurs se retrouvent dépossédés de leurs identités numériques sont nombreux, et le projet du Health Data Hub peut potentiellement se retrouver parmi le rang de ceux-ci si les autorités ne prennent pas une véritable conscience et ne réalisent pas l’ampleur des dégâts. Il faut à tout prix éviter de devenir une colonie numérique d’extraction de données de la Silicon Valley. Pour autant le gouvernement semble avoir tranché sur le sujet. D’ici deux ans, délai annoncé par le ministre du numérique pour changer d’hébergeur, peuvent survenir de nombreux incidents.

Par Oluwafisayomi AGUNBIADE Ayman HILAL et Alina IBRAGIMOVA, étudiants en master 2 intelligence économique et stratégies compétitives à l’université d’Angers

Sources et Bibliographie

 

 

 

L’article Big data et éthique en santé : état des lieux en France est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
La position de la France à l’ère de la reconnaissance faciale https://master-iesc-angers.com/la-position-de-la-france-a-lere-de-la-reconnaissance-faciale/ Wed, 03 Mar 2021 18:37:28 +0000 https://master-iesc-angers.com/?p=3380 Introduite petit à petit dans nos sociétés, la reconnaissance faciale fait aujourd’hui de plus en plus de bruit, et les discours s’apparentent à ceux d’une société Orwellienne. Considérée d’une part comme un facteur de risque et d’autre part comme une… Continuer la lecture

L’article La position de la France à l’ère de la reconnaissance faciale est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Introduite petit à petit dans nos sociétés, la reconnaissance faciale fait aujourd’hui de plus en plus de bruit, et les discours s’apparentent à ceux d’une société Orwellienne. Considérée d’une part comme un facteur de risque et d’autre part comme une excellente opportunité, elle reste encore peu expliquée. Pourtant, son utilisation de plus en plus répandue dans certains pays comme la Chine (avec un contrôle généralisé par vidéosurveillance), et le marché en forte expansion autour d’elle, rendent intéressant le débat qu’elle soulève. Il est important de souligner que les valeurs et les modèles de gouvernance des pays, fondamentalement différents, impactent le degré d’acceptation et d’adoption des innovations.

En général, les traitements des données biométriques, analysées pour authentifier un individu (c’est-à-dire déterminer irréfutablement son identité), sont de plus en plus répandus. La CNIL définie la biométrie comme l’ensemble des techniques informatiques permettant de reconnaitre automatiquement un individu à partir de ses caractéristiques physiques, biologiques, voire comportementales. L’analyse des caractéristiques physiques propres aux individus, comme la voix, le visage, l’iris, les empreintes digitales et la reconnaissance faciale, leur permettent de se protéger contre la fraude et le vol. Cependant, prises hors du cadre personnel, ces pratiques posent des problèmes éthiques et de sécurité. Aujourd’hui, au-delà de l’authentification des téléphones et appareils électroniques, on peut payer ses courses dans certains pays avec la reconnaissance faciale, s’enregistrer à l’entrée d’un local pour participer à un évènement (concerts, match etc…), et la technologie peut aller plus loin. Cette innovation qui combine intelligence artificielle et avancée technologique refroidit les ardeurs de certains pays dont les pays de l’Union Européenne. Au-delà de la nécessité d’adapter la législation, les questions que soulèvent la reconnaissance faciale remettent en cause la maturité de la population à laquelle l’innovation serait apportée.

Il est nécessaire de comprendre, d’une part ce que la reconnaissance faciale pourrait emmener concrètement comme changement dans nos sociétés, et d’autre part ce qu’elle comporte comme risque. Alors que nos pays prennent le temps de faire le tour du sujet, et de se doter de législations adéquates pour réguler et protéger leurs valeurs, un marché en plein essor se développe. Il est important de ne pas rater la fièvre du marché et de se retrouver submergé par l’innovation développée par les sociétés étrangères une fois que le public ciblé arrivera à maturité. Ces sociétés étrangères auront déjà maitrisé les coûts et auront gagné en compétitivité. Les efforts de l’Union Européen dans la protection de sa souveraineté face au digital, la protection des données personnelles et la sauvegarde de la société éthique, bien qu’étant dans l’intérêt des citoyens, fragilisent les entreprises Françaises qui sont face à la concurrence rude, presque déloyale, des sociétés étrangères, en termes d’innovation. D’où l’urgence pour l’UE d’adopter une stratégie claire en ce qui concerne la reconnaissance faciale. Il en va de sa compétitivité et de sa place dans la course mondiale à l’Intelligence artificielle. Cet article analyse la position de l’UE en général et de la France en particulier, face à la reconnaissance faciale.

La reconnaissance faciale et les problèmes qu’elle soulève

Le principe de cette technologie est qu’un programme utilise l’intelligence artificielle pour analyser un visage. Des capteurs 2D et 3D mesurent la distance entre les yeux et à partir de celle-ci analysent des milliers de données biométriques afin de trouver un code qui correspond au visage. Grâce à ce code on peut être identifié ou s’authentifier. Dans le cadre de l’authentification aucun problème ne se pose dans la mesure où elle est souvent l’initiative de la personne authentifiée. C’est donc une comparaison d’informations données à un système. Par exemple pour déverrouiller un téléphone, une application, ou accéder à un bâtiment. L’identification au contraire suppose un apprentissage du système de qui on est, sans avoir besoin de donner délibérément des informations préalables. Ou alors le système dispose d’informations procurées par une entité par exemple dans le cas du paiement sans carte bancaire ou d’un contrôle d’identité. Ceci est inquiétant dans la mesure où n’importe quelle société disposant de données personnelles susceptibles de permettre la reconnaissance faciale peut nous identifier. Libéraliser cette pratique pourrait donc conduire à une surveillance de masse. Si, dans certains pays comme la France, les citoyens sont réfractaires à la mise en place d’une surveillance par leurs gouvernements, à plus forte raison la surveillance de sociétés privées peut être inquiétante dans un contexte où les données personnelles sont de plus en plus vendues.

Etat des lieux au sein de l’Union Européenne

Pour l’union européenne, les enjeux sont de taille. Rejeter la reconnaissance faciale reviendrait à abandonner la course à l’IA. Toutefois, elle veut éviter la surveillance de masse à l’insu des citoyens, préserver la vie privée, les droits essentiels et l’égalité de traitement. Le 28 Janvier, le conseil de l’Europe (qui a également travaillé sur l’élaboration du RGPD) a publié des directives strictes concernant la reconnaissance faciale notamment en interdisant la détermination du sexe, de la couleur de peau, de l’âge, du statut social, pour éviter la discrimination surtout dans l’emploi, l’éducation et l’assurance. Par exemple en Chine, le système développé par Dahua serait capable de détecter les Ouïghours et d’alerter la police. Les interdictions s’adressent aux développeurs, aux gouvernements et aux entreprises. La réglementation européenne dispose que le consentement n’est pas un fondement juridique suffisant pour utiliser la reconnaissance faciale dans la sphère publique ni dans la sphère privée. La position de l’UE est d’autant plus compréhensible que les voix sur les réseaux sociaux s’élèvent contre l’adoption de la reconnaissance faciale. A l’initiative de plusieurs associations, une pétition est lancée depuis quelques semaines pour bannir la surveillance biométrique dans l’union. Dans le monde entier, des actions sont entreprises, par des internautes, des activistes, des artistes, pour bannir la reconnaissance faciale et préserver les données et les vies privées.

La France a déployé la reconnaissance faciale à l’aéroport de Nice en 2019 puis de Lyon en 2020 afin de fluidifier le parcours des voyageurs. Tandis que 97% des aéroports es Etats-Unis utilisent cette technologie, ce déploiement se fait au grand dam de la CNIL qui s’inquiète du nombre sans cesse croissant de caméra dans les villes françaises. Les ambitions du pays pour les smart city nécessitent une maitrise de tout ce qui touche à l’IA et un cadre juridique et réglementaire solide.

Il y a moins d’un mois, les journaux révélaient qu’une plainte a été déposée en France contre la société américaine Clearview AI. Cette société qui a développé un système grâce à des données collecté sur le web est accusée de surveillance illégale au Canada et dans d’autres pays dont la France. On se rappelle également l’affaire IDEMIA de l’année dernière. Cette société française était citée parmi les mauvais élèves par Amnesty international. L’ONG avait accusé certaines sociétés Européenne d’exporter leur technologie de reconnaissance faciale en Chine. IDEMIA, qui était au temps des faits une filiale de Safran, s’est défendue en assurant que la technologie n’était pas déployée et a réitéré sa vision d’un cadre réglementaire clair pour la reconnaissance faciale en Europe.

L’hexagone n’est pas en marge des ambitions de l’UE en termes de protection de données et de réglementation de l’IA. Cependant, l’intérêt de la France pour la reconnaissance faciale n’en est pas moindre. Il y a un réel potentiel qui peut être exploité en maintenant une couture entre innovation et réglementation. Les entreprises Françaises ont une double charge. Elles doivent être compétitives à l’international tout en respectant les contraintes et les valeurs du pays. L’UE pourrait idéalement offrir un cadre où ces entreprises pourraient se développer sans enfreindre les règles en vigueur.

La question des traitements biométriques en général et la reconnaissance faciale en particulier renvoie au même sujet qui suscite les débats depuis quelques années : les données personnelles et leurs traitements. L’union européenne en s’attelant à la tâche de réglementation propose une porte de sortie face à la complexité du sujet et à la gestion libérale et risquée de certains pays. Toutefois, le sort des entreprises du secteur doit être toujours pris en considération surtout parce qu’il s’agit d’un marché en forte croissance (augmentation de 20% par an au cours des trois dernières années) dominée par la Chine, le Japon et les Etats-Unis. Il est nécessaire de créer un marché intérieur de l’IA et d’éviter de se montrer réfractaire au changement aujourd’hui pour être dans un futur proche les importateurs de cette technologie.

Par Colette Armandine Ahama, promotion 2020-2021 du M2 IESCI

Sources

https://www.cnil.fr/fr/definition/biometrie

http://www.economiematin.fr/news-reconnaissance-faciale-ethique-progres

https://siecledigital.fr/2021/01/29/vers-un-encadrement-de-la-reconnaissance-faciale-en-europe/

https://www.latribune.fr/opinions/tribunes/reconnaissance-faciale-un-debat-utile-et-necessaire-875195.html

https://www.lefigaro.fr/secteur/high-tech/reconnaissance-faciale-la-societe-clearview-ai-accusee-de-surveillance-de-masse-illegale-20210204

https://siecledigital.fr/2021/02/22/pourquoi-la-reconnaissance-faciale-fait-peur/

https://www.usine-digitale.fr/article/le-francais-idemia-accuse-d-avoir-vendu-un-systeme-de-reconnaissance-faciale-a-la-police-chinoise.N1007364

CNIL = Commission nationale informatique et libertés

UE = Union Européenne

 

L’article La position de la France à l’ère de la reconnaissance faciale est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Dark Data : la création d’un plan d’action utile à la gouvernance de l’entreprise https://master-iesc-angers.com/dark-data-la-creation-dun-plan-daction-utile-a-la-gouvernance-de-lentreprise/ Thu, 17 Dec 2020 18:07:32 +0000 https://master-iesc-angers.com/?p=3333 Le contenu non géré, non classé et inconnu est répandu dans la plupart des entreprises. Ces données négligées occupent une capacité de stockage précieuse et peuvent contenir des risques cachés. Des projets «Big Data» qui soutiennent les services clients, le… Continuer la lecture

L’article Dark Data : la création d’un plan d’action utile à la gouvernance de l’entreprise est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Le contenu non géré, non classé et inconnu est répandu dans la plupart des entreprises. Ces données négligées occupent une capacité de stockage précieuse et peuvent contenir des risques cachés. Des projets «Big Data» qui soutiennent les services clients, le marketing ou les initiatives d’amélioration des processus, peuvent conduire à une accumulation de données qui devient rapidement dormante.

Nommé « dark data » ou « informations sombres », ce contenu inutilisé ou non identifié se trouve en dehors des calendriers de conservation, des schémas de classification et les systèmes d’extraction sur lesquels les organisations s’appuient pour respecter les obligations de conformité, allègent le fardeau des découvertes électroniques et veillent à ce que les décisions soient prises en se basant sur des informations exactes et pertinentes.

Comme le volume d’informations continue d’augmenter, les informations, les professionnels, les gestionnaires des risques et les équipes informatiques doivent travailler en collaboration et prendre action sur les dark data. Un plan d’action des dark data peut servir de feuille de route pour les organisations engagées à gérer un tel contenu. Quatre essentiels activités (analyse, classification, collecte et évaluation ) peuvent aider votre organisation à améliorer la pertinence de ses décisions.

Les exigences de stockage augmentent et le coût de trouver des informations lorsque les avocats et les auditeurs sont impliqués peut-être astronomique. Les industries réglementées peuvent être exposées à des amendes ou sanctions en raison du contenu qui se trouve sans surveillance et non protégé sur les anciens disques de stockage, clés ou d’autres outil de stockage.

Le terme « dark data» est apparu pour décrire cette catégorie de contenu non géré.[1]

Les données sombres peuvent contenir des risques cachés

Les professionnels de l’information en informatique doivent prendre conscience des informations qui se trouvent à la périphérie de leurs programmes de gouvernance. Les informations desquels l’entreprise n’est pas consciente peuvent être un frein de la productivité, de l’efficacité des infrastructures, de la recherche et de la découverte. Ce contenu non géré et/ou oublié peut même dissimuler des données obsolètes ou inexactes qui pourraient être mal interprétées si découvertes par des auditeurs ou des avocats.

Toute forme d’informations stockées électroniquement peut faire l’objet d’une découverte légale si une menace de litige émerge. La présence de données non catégorisées, obscures et non gérées peut entraîner une augmentation des coûts de recherche, d’examen et d’analyse. Des risques accrus peuvent également survenir si ces données obscures incluent des bruits non identifiés ou des doublons qui auraient dû être éliminés.

Les professionnels de l’information commencent à prendre en considération les manières dont la technologie et les nouvelles approches de la gouvernance de l’information peuvent capitaliser ce contenu douteux. La Conférence Sedona[2], recommande aux organisations de « réduire l’accumulation continue d’informations inactives » et qu’ ‘«une organisation devrait éviter la rétention d’informations inactives en détruisant ce qui n’est plus nécessaire pour répondre aux exigences de rétention ou aux besoins commerciaux ».

Agir sur les Dark Data

L’évaluation des dark data dans l’entreprise peut être une tâche onéreuse si elle est abordée manuellement. Peu d’organisations ont des ressources pour rechercher dans les profondeurs des stockages non gérés. L’ampleur et la portée d’une telle tâche est écrasante et empêche de nombreuses organisations de prendre des actions décisives. Cependant, le fait de ne pas agir exacerbera inévitablement la situation. Chaque jour – 24/7 – de nouvelles données sont créées, des transactions sont capturées et de nouvelles sources du contenu sont adoptés par les clients et les entreprises.

Le contrôle de votre dark data peut-être effectuer grâce à un plan, de bons outils et une méthodologie conçue pour identifier l’inconnue.  Les avantages de la mise en place d’une action devraient être considérés du point de vue de :

  • L’économie : Les avantages économiques peuvent inclure une réduction des coûts de stockage en éliminant les redondances. Les organisations doivent commencer à mettre en évidence les outils couteux qui doivent être abandonnés – logiciel non utilisé mais qui entraine des frais de maintenance – et les coûts de mise à niveau du matériel.

  • La conformité : Les avantages de la conformité peuvent inclure une réduction des risques de violation de la politique en gardant l’information obsolète au-delà de sa période de conservation. Ou une réduction du risque d’amende en stockant des informations réglementées telles que les informations identifiables en dehors des systèmes sécurisés. Le risque de sanctions qui résultent d’une divulgation inexacte pendant l’audit peut également être réduit.

  • La productivité : Les avantages de productivité peuvent être obtenus en supprimant les sources d’information potentiellement déroutantes, obsolètes ou dupliquées. Le temps est perdu quotidiennement à passer au crible les doublons, à déterminer les versions correctes et à réconcilier des données contradictoires. Les gains de productivité peuvent également être réalisés lorsque des données anciennement laissées dans l’obscurité et inutilisées sont récupérées, catégorisés et mises en service. Les registres des anciens projets peuvent être importants, en particulier dans les organisations qui s’engagent à analyser les mesures de la performance ou la prise de décision.

Éléments d’un plan d’action sur les dark data

Les plans d’action sur les données sombres doivent comprendre quatre tâches clés :

  • L’analyse : La première phase d’un plan d’action sur les données sombres consiste à comprendre le contenu non-catégorisé, non organisé et inconnu. L’analyse aide à révéler la nature de ces données, leurs formats, s’il s’agit d’un doublon et combien de capacité de stockage il occupe. Le but de cette phase est d’identifier ce qui est précieux et ce qui ne l’est pas. Une recherche menée en 2011 a révélé que 74% des entreprises utilisent encore des techniques manuelles pour la catégorisation des informations[3]. Cependant pour la plupart des grandes entreprises qui utilisent ces techniques manuelles de l’analyse, elles échouent souvent. Pour des résultats plus efficaces, il faut tirer parti de la technologie pour minimiser le volume d’informations inactives et dormantes dans l’entreprise.
  • La recherche avancée et les outils d’analyse de contenu ont atteint un niveau de maturité qui est enfin accessible pour la plupart des entreprises. L’analyse sophistiquée et l’extraction de concepts, d’entités et des métadonnées sont intégrées dans les interfaces utilisateur et les vues graphiques afin de les rendre accessibles et compréhensibles aux gestionnaires de l’information. Les modèles licenciés et tarifiés sont également devenus plus accessibles.

  • La classification : Comme les efforts humains seuls sont généralement coûteux, chronophages et probablement soumis à des taux d’erreur, l’automatisation de la classification et le processus de la catégorisation est essentiel lors du traitement de gros volumes de dark data. Un plan d’action durable et réaliste utilisera la technologie dans la mesure du possible. L’analyse du contenu avec la classification automatique des capacités peuvent être un élément clé à ce stade du projet d’évaluation des dark data. Les information inconnues et non catégorisées peuvent être analysées par un logiciel. Les outils d’analyse de contenu peuvent correspondre au traitement des informations non structurées.
  • Les clusters de contenu peuvent être regroupés et classifiés, permettant une classification à grande échelle. Les Schémas de catégorie peuvent être auto-formés puisque les processus de classification exécutent, optimisent les résultats et créent plus de résultats précis et applicables. Les valeurs aberrantes peuvent être identifiées, révélant les types de contenu qui tombent en dehors de votre taxonomie existante, aidant à mettre en évidence les lacunes dans le schéma. Il faut concentrer l’expertise des gestionnaires d’informations sur la gestion des exceptions et non pas des tâches de routinières.
  • La technologie peut effectuer la tâche d’analyse prévisible et volumineuse. La classification est une étape importante dans la séparation des dark data dignes d’être éclairées des données redondantes, obsolètes et triviales. La classification aide à identifier la pile ROT[4] pour une disposition sûre et défendable. Les organisations responsables des informations protégées peuvent bénéficier d’outils analytiques pour découvrir les aspects cachés des données qui peuvent présenter des risques s’ils ne sont pas correctement gérés. Les technologies qui permettent l’auto-classification peuvent être configurées pour trouver et signaler le contenu contenant des informations personnelles et réglementer les données telles que les numéros de carte de crédit, montants monétaires ou numéros d’identification émis par le gouvernement. Tirer ces informations protégées dans un système de classification approprié ou des calendriers de conservation approuvés seront des éléments essentiels pour combler les lacunes de conformité.

  • La collecte : Le troisième élément du plan d’action sur les Dark Data est de prendre des décisions concernant la gestion et la gouvernance de l’information. La phase de classification doit réduire considérablement le volume de données dignes d’être analysées et protégées. Le ROT a maintenant été programmé pour disposer conformément aux politiques de conservation approuvées. La collection aide à mettre en valeur le reste de ces données autrefois négligées, en aidant à garantir que toute activité résiduelle, réglementaire ou à valeur historique a été extraite, gérée et mise à la disposition des utilisateurs concernés. La gestion et la gouvernance continues de ces informations nouvellement organisées peuvent être effectuées par des outils technologiques. Une gouvernance de l’information avec des capacités de référentiel sécurisé, outils de gestion de la rétention et de l’élimination, fonctions de recherche, de découverte et d’extraction doit être envisagée, pour aider à garantir la disponibilité de l’information aux managers, compliance et juristes et les utilisateurs professionnels. Les règles de rétention peuvent maintenant être appliquées, apportant une gestion du cycle de vie aux données récupérées et veillant à ce qu’elles soient éliminées le cas échéant.

  • L’évaluation : La phase finale d’un plan d’action sur les dark data consiste à effectuer un examen approfondi des informations. Une évaluation permet de déterminer les détails importants sur les informations utiles à la gouvernance. Où est le contenu retenu ? Quelles applications, référentiels ou plates-formes de stockage sont utilisés ? Quels types de documents sont saisis et stockés ? Les nouvelles formes de documents comme les applications mobiles, sociales et Web deviennent-elles des sources de contenu ? À quel point la rétention et la disposition respectent elles les règles suivies ? Les processus sont-ils cohérents, défendables et conçus pour soutenir les politiques et les règlements ? les données personnelles ou les données client, sont-elles correctement sécurisées et surveillées ? Maintenant tout ce qui n’était pas géré auparavant, les informations inconnues, ont été identifiées, organisées, conservées ou éliminées conformément aux politiques de rétention. Il est donc temps de documenter l’état actuel et planifier l’avenir. Les grandes entreprises complexes recherchent souvent des conseils auprès des sources externes tels que les analystes de l’industrie, les experts de l’information utiles à la gouvernance…

  • Les activités recommandées lors de l’exécution d’une l’évaluation comprennent :
  • L’évaluation de l’ensemble des échantillons de données à l’aide des outils d’auto-classification, afin d’identifier des lacunes
  • La mise en évidence des zones de risque o   L’identification des opportunités de réduction des coûts
  • L’analyse comparative par rapport aux modèles de maturité

Ces tâches clés auront pour résultat une feuille de route permettant de lutter contre l’accumulation des dark data à la périphérie de l’entreprise.

Par Basma Bakkali, promotion 2020-2021 du M2 IESCI 

[1] Gartner : « Dark Data est comme le mobilier que vous avez dans ce Dark Cupboard » 2012

[2] Conférence Sedona : une organisation à but non lucratif reconnue institut de recherche pour l’étude approfondie du droit

[3]  Kahn Consulting. « Comment mettre à l’échelle un support d’information Everest ? »

[4] Redondantes, Obsolètes et Triviales

Webographie

https://www.lebigdata.fr/dark-data-2210

https://blog.datumize.com/infographic-what-is-dark-data-and-why-it-matters

https://www.everteam.com/fr/la-gouvernance-de-linformation-nest-plus-un-luxe-mais-une-necessite/

https://www.academia.edu/25338922/Dark_data_Business_Analytical_tools_and_Facilities_for_illuminating_dark_data

L’article Dark Data : la création d’un plan d’action utile à la gouvernance de l’entreprise est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
L’arrivée de dispositifs de « cloud gaming » : vrai changement dans l’industrie du jeu vidéo ? https://master-iesc-angers.com/larrivee-de-dispositifs-de-cloud-gaming-vrai-changement-dans-lindustrie-du-jeu-video/ Thu, 20 Feb 2020 13:23:54 +0000 https://master-iesc-angers.com/?p=3137 Comme le cinéma ou la musique, le marché du jeu vidéo a entamé une transition vers un modèle au sein duquel les consommateurs n’achètent plus le produit mais payent un abonnement à une plateforme centralisée à partir de laquelle ils… Continuer la lecture

L’article L’arrivée de dispositifs de « cloud gaming » : vrai changement dans l’industrie du jeu vidéo ? est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Comme le cinéma ou la musique, le marché du jeu vidéo a entamé une transition vers un modèle au sein duquel les consommateurs n’achètent plus le produit mais payent un abonnement à une plateforme centralisée à partir de laquelle ils peuvent accéder à un catalogue de jeux vidéo. Si les géants des jeux vidéos utilisent de tels dispositifs depuis années (Sony avec le Playstation Now depuis 2017, Microsoft avec le Xbox Game Pass depuis 2017, Electronic Arts avec Origin Access depuis 2016), d’autres acteurs comme Google ont créé une offre avec l’objectif de concurrencer les acteurs historiques du gaming. Focus sur ces démarches ainsi que sur leur avenir.

« Gaming on Demand » / « Cloud gaming » : de quoi s’agit-il ?

Le « Gaming on Demand » (jeu vidéo à la demande) fait référence à la mise en relation entre l’offre et la demande de jeux vidéo via une plateforme centralisée. En se connectant à la plateforme, les joueurs ont accès à plusieurs produits (plus ou moins nombreux selon les plateformes). Les plateformes en question peuvent être gratuites ou payantes (abonnement mensuel) et proposent majoritairement des jeux payants (c’est par exemple le modèle de Steam, la plus populaire des plateformes PC).

Parmi les services de « Gaming on Demand », certains dispositifs proposent aux joueurs la possibilité de jouer sans avoir à télécharger le jeu auquel ils souhaitent jouer : on parle de « Cloud Gaming ». Concrètement, le Cloud Gaming permet d’ « exécuter le jeu sur les serveurs du fournisseur de service situés dans un ou plusieurs Data Center. Via Internet, les images sont transmises en temps réel sur l’écran de l’utilisateur (de la même manière qu’une vidéo YouTube ou Netflix)[1] ». Le Cloud Gaming permet donc de s’affranchir des contraintes liées à la machine au profit d’un système complètement dématérialisé. Google propose un service de Cloud Gaming avec Stadia. On peut également citer le service français Shadow développé par Blade. D’autres entreprises travaillent sur des dispositifs qui s’inscrivent dans la même logique. Microsoft a notamment communiqué sur le projet xCloud.

De tels dispositifs présentent plusieurs avantages. D’abord, cela permet de bénéficier de ses jeux sur tous les supports dotés d’un écran (smartphone, tablette, téléviseur, ordinateur). La polyvalence du système est donc un vrai atout par rapport aux dispositifs traditionnels. Ensuite, les systèmes Cloud Gaming sont pensés de manière à limiter au maximum les temps de chargement. Les jeux sont donc très faciles d’accès et ne nécessitent aucun téléchargement ou aucune mise à jour comme cela peut être le cas sur des dispositifs plus traditionnels. Enfin, à condition d’avoir une connexion internet de qualité, il est possible de faire fonctionner la quasi-totalité des jeux sans avoir de matériel ultra-performant et pensé pour le gaming. Effectivement, les fournisseurs comme Google ou Blade disposent d’une puissance de calcul telle qu’ils offrent la possibilité aux joueurs de faire fonctionner des jeux en qualité optimale. Cela présente donc un avantage de prix non négligeable : plus besoin de se procurer des ordinateurs coûteux pour profiter des derniers jeux.

Si le Cloud Gaming présente des avantages incontestables, il reste perfectible à plusieurs niveaux. Comme évoqué précédemment, une connexion internet haut-débit et stable est nécessaire pour pouvoir jouer sans latence. Le problème n’est pas vital pour des jeux solos mais il est absolument clé pour ce qui est des jeux multijoueur qui exigent de n’avoir aucune latence. D’autre part, il semble que la proximité par rapport aux serveurs joue également un rôle. Par exemple, un utilisateur de Google Stadia qui se trouve tout près des serveurs Google aura moins de latence que le joueur qui en est éloigné. Le problème de la propriété semble également poser problème aux joueurs. En effet, le Cloud Gaming a pour conséquence (comme Netflix pour le cinéma ou Spotify pour la musique) de rendre impossible la possession des jeux. Enfin, ces dispositifs consomment une quantité phénoménale de données (près de deux fois plus que pour le streaming d’un film). Lorsqu’on connait les enjeux environnementaux auxquels nous faisons face aujourd’hui, nous avons affaire à un vrai inconvénient. Nous reviendrons sur ce dernier problème à la fin de cet article.

Premiers résultats et projets

Bien que tous les spécialistes s’accordent pour dire que le marché du Cloud Gaming est prometteur et potentiellement source de profits juteux, les dispositifs lancés par les principales entreprises du secteur ont reçu un accueil mitigé.  Le service Stadia de Google a par exemple connu des débuts compliqués. Entre le 5 (date de lancement) et le 19 Novembre 2019, Stadia n’a été téléchargé que 175 000 fois. Compte-tenu des investissements consentis et de l’ampleur du projet, ce chiffre est plutôt moyen. À titre de comparaison, Microsoft avait vendu plus d’1 million d’exemplaires de Xbox pendant les premières 24h de sa sortie. Cela s’explique notamment par les soucis de latence évoqués précédemment ainsi que par le modèle d’affaires retenu par Google qui oblige les utilisateurs à payer les jeux auxquels ils souhaitent jouer en plus de l’abonnement mensuel. Stadia proposait un catalogue de 22 jeux à sa sortie ce qui peut également bloquer par rapport à des dispositifs traditionnels qui offrent un catalogue de jeux bien plus vaste. Le géant californien n’a d’ailleurs pas beaucoup communiqué sur les résultats de Stadia. Depuis, il semble qu’il n’y ait aucune amélioration notable. Google doit même faire face à des problèmes internes puisqu’un Community Manager avait assuré en Novembre 2019 à un twitto italien que les jeux achetés disparaissaient du catalogue si le joueur stoppait son abonnement. Pourtant, Google a démenti quelques jours plus tard en affirmant le contraire. Ces éléments de communication ont largement contribué à nuire à la réputation de Stadia dans le sens où ils avaient été largement repris sur le réseau social Reddit sur lequel les joueurs du monde entier échangent et donnent leur avis.

L’entreprise française Blade avait, elle, divisé par deux le prix de son abonnement mensuel lorsque Google avait lancé Stadia. Le prix était alors passé de 29,95 euros par mois à 12,99 euros par mois (alors que Stadia est proposé à 9,99 euros par mois). Si le nombre de souscription à leur service est moins élevé que celui de Stadia, il semble plus en adéquation avec les objectifs de la start-up française. Shadow possède également l’avantage de faciliter l’accès à l’ensemble des jeux qui existent (et pas seulement une vingtaine comme Stadia).

Microsoft, acteur bien ancré sur le marché du jeu vidéo depuis plusieurs années, va lancer en 2020 son service Cloud Gaming nommé xCloud. Avec plus de 54 jeux disponibles, le catalogue de xCloud est bien plus vaste que celui de Stadia. De plus, les futurs utilisateurs n’auront que l’abonnement mensuel à payer ; ils auront ensuite accès gratuitement à l’ensemble des jeux disponibles dans le catalogue. Microsoft parait donc en position idéale pour profiter des possibilités qu’offre le Cloud Gaming.

Quelles perspectives pour le Cloud Gaming ?

Alors que les spécialistes s’attendaient à un vrai changement de structure du marché du jeu vidéo, il est clair que la transformation n’a pas eu lieu. Une étude de Médiamétrie montre pourtant d’une part qu’une très large partie de la population française joue aux jeux vidéo (72% des adultes) et d’autre part qu’ils ont tendance à jouer sur plusieurs supports.

Le graphique ci-dessus prouve que les joueurs utilisent en moyenne entre 2 et 3 supports pour jouer. Les plus représentés sont les smartphones, les ordinateurs puis les consoles de jeu TV. Au vu de ces statistiques, le Cloud Gaming qui offre la possibilité de jouer à ses jeux sur tous les supports présentés dans le graphique pourrait convenir au joueur français moyen. Cela lui permettrait de jouer à ses jeux sur tous ses supports. Le modèle du Cloud Gaming est donc pensé pour convenir à ces utilisateurs. Les problèmes de latence évoqués précédemment (qui sont aujourd’hui le principal frein pour de nombreux gamers) mériteraient donc d’être résolus pour offrir une vraie chance au Cloud Gaming. L’arrivée et la généralisation de la 5G devrait permettre de résoudre une partie de ces problèmes de latence en permettant aux français de bénéficier d’une connexion internet adaptée à ces offres.

Il semble tout de même que les joueurs réguliers (les plus susceptibles de souscrire à un abonnement mensuel) soient attachés au modèle traditionnel et jouent à des jeux différents en fonction des supports. Les jeux mobiles sont pensés pour être accessibles et ne pas demander beaucoup de temps au joueur alors que les jeux PC ou consoles sont aujourd’hui à tout point de vue de meilleure qualité. Le Cloud Gaming, par la possibilité que cela offre de jouer aux mêmes jeux sur tous ces supports, ne fait donc pas l’unanimité. Le fait que les joueurs ne soient pas toujours propriétaires des jeux auxquels ils jouent est incontestablement un inconvénient pour beaucoup de clients potentiels.

La consommation excessivement importante de données que nécessite le Cloud  Gaming est à l’opposé des revendications environnementales que prône un nombre croissant de citoyens. Le processus est, certes, déjà lancé mais il pose question. Est-il souhaitable d’aller vers une généralisation de ce genre de service sachant qu’à termes, la quasi-totalité de la population jouera au moins occasionnellement ? Cela aboutirait à une consommation de données considérable qui ne ferait qu’accentuer les problèmes environnementaux auxquels nous faisons face.

Pour finir, Sony et Microsoft ont récemment annoncé qu’ils sortiraient la prochaine génération de console de salon fin 2020. Les informations dont nous disposons actuellement ne permettent pas d’affirmer avec certitude qu’elles seront compatibles avec des services de Cloud Gaming. Toutefois, il est par exemple probable que Microsoft profite de l’occasion pour lancer son xCloud. Sony doit également réfléchir à la mise au point d’un système similaire. Le salut du Cloud Gaming passera donc peut-être par la compatibilité avec les consoles de salon auxquelles beaucoup de joueurs restent attachés.

Article d’Antonin Rohard, promotion 2019-2020 du M2 IESCI

[1] Définition tirée du site spécialisé www.lebigdata.fr. Se référer aux Sources pour plus d’informations.

Sources

Site web de Shadow : https://shadow.tech/frfr

Article qui rend-compte des difficultés de Stadia lors de son lancement : https://www.lesechos.fr/tech-medias/hightech/jeux-video-les-debuts-difficiles-de-google-stadia-dans-le-cloud-gaming-1150147

Article qui traite du soucis de communication chez Google à propos des jeux achetés : https://www.numerama.com/tech/574128-stadia-affirme-sur-twitter-que-les-jeux-achetes-en-promo-disparaissent-a-la-fin-de-labonnement-google-dement.html

Définition du Cloud Gaming : https://www.lebigdata.fr/cloud-gaming-tout-savoir

Page web dédiée au projet xCloud : https://www.xbox.com/fr-FR/xbox-game-streaming/project-xcloud

Article qui présente l’offre Cloud Gaming de Microsoft : https://www.phonandroid.com/microsoft-devoile-les-54-jeux-gratuits-de-xcloud-son-tueur-de-google-stadia.html

Article qui rend-compte de la stratégie de Shadow face à l’arrivée de Google sur le marché : https://www.latribune.fr/technos-medias/innovation-et-start-up/shadow-leve-30-millions-d-euros-et-divise-par-deux-son-prix-pour-contrer-google-831898.html

Étude Médiamétrie sur les habitudes des français en matière de jeu vidéo : https://www.mediametrie.fr/fr/le-jeu-video-sancre-dans-le-quotidien

 

 

L’article L’arrivée de dispositifs de « cloud gaming » : vrai changement dans l’industrie du jeu vidéo ? est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Invitation à la recherche de nouveaux imaginaires https://master-iesc-angers.com/invitation-a-la-recherche-de-nouveaux-imaginaires/ Wed, 04 Dec 2019 13:49:08 +0000 https://master-iesc-angers.com/?p=3080 Ecouteurs fixés aux oreilles, chaussures lacées, porte fermée à clé, en avant pour l’instant liberté de la journée. Premier kilomètre, l’écrivain et philosophe français Eric Sadin, invité de Thinkerview, rythme ma foulée. Il expose notamment cette dynamique technoéconomique, néolibérale qui… Continuer la lecture

L’article Invitation à la recherche de nouveaux imaginaires est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Ecouteurs fixés aux oreilles, chaussures lacées, porte fermée à clé, en avant pour l’instant liberté de la journée. Premier kilomètre, l’écrivain et philosophe français Eric Sadin, invité de Thinkerview, rythme ma foulée. Il expose notamment cette dynamique technoéconomique, néolibérale qui prône sans cesse l’importance du développement de l’intelligence artificielle. Mais qu’est-ce que l’intelligence artificielle ? Quelles formes recouvre-t-elle ? Quels sont ses objectifs ? Quel modèle de société engendre-t-elle ? Un tel engouement généralisé, une telle préoccupation à la développer mérite que l’on en comprenne les finalités. A mesure que la conversation s’anime, ces questions émergent dans mon esprit et j’allonge la foulée.

Fraîcheur et Définition

L’intelligence artificielle est, selon une définition du scientifique américain Marvin Lee Minsky en 1956, « la construction de programmes informatiques qui s’adonnent à des tâches qui  sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains, car elles demandent des processus mentaux de haut niveau tels que: l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ».

En d’autres termes, elle consiste à un vaste domaine touchant autant à l’informatique qu’aux mathématiques, mais également à la neuroscience et même à la philosophie, en s’appuyant sur des algorithmes en mesure d’ajuster leurs calculs en fonction des traitements qu’ils ont à effectuer. Ces réseaux de neurones artificiels, constitués de serveurs puissants, permettent de traiter de nombreuses sources d’informations issues de gigantesques bases de données.

Cette définition permet d’avancer un premier élément qui explique un tel engouement : l’intelligence artificielle apporte une autre dimension à l’intelligence humaine, elle l’ambitionne, la décuple, ou peut-être plutôt elle l’affaiblie, la ridiculise et menace son existence ?

En réalité, cette intelligence artificielle nous dépasse déjà en ce qu’elle dispose d’une capacité de calcul bien supérieure à la notre. La victoire, en 2016, du système d’intelligence artificielle AlphaGo dans une partie du jeu de go contre le meilleur joueur mondial sud-coréen Lee Sedol est une illustration poignante de ce constat. Le développement d’une meilleure capacité des ordinateurs ainsi que l’avènement du Big Data a contribué, et contribuera encore davantage, à l’émergence d’une intelligence artificielle toujours plus forte.

En revanche, il est à douter que l’intelligence ne se définisse que par le prisme de la capacité de calcul. Dans cette perspective, l’intelligence artificielle n’est pas en mesure de défier l’intelligence humaine puisqu’elle ne dispose pas d’une conscience d’elle-même et d’un contexte socio-culturel, aptitude qui caractérise notre humanité.

Il semblerait alors que le danger de l’intelligence artificielle ne réside non pas dans le dépassement de notre intelligence mais bien davantage dans l’appropriation de notre liberté ; un scénario plausible que Monsieur Sadin continue de présenter à l’aube de mon second kilomètre.

Humidité et Invasion

Le temps est à la pluie, et l’humidité qui m’environne m’émerveille autant qu’elle m’indispose. Je constate qu’indéniablement, l’intelligence artificielle occupe une place toujours plus importante dans nos vies actuelles. Les voitures autonomes sur le point d’être lancées, les assistants personnels sur les Smartphones, les objets connectés, les modèles de management, de recrutement, de justice et enfin l’inquiétante création du crédit social en Chine. Alors que je vérifie le rythme de ma foulée sur ma montre connectée, je réalise tristement que je fais également partie de ce système et que j’ai moi aussi créé une habitude autour du confort insidieux insufflé par l’intelligence artificielle.

La diversité des applications de l’intelligence artificielle engendre une hausse de son degré d’implication, qui fait ou devrait faire, l’objet de préoccupations. Le développement des objets connectés permet la collecte de données de plus en plus étendues, de tout ordre et en temps réel : comportementale, physiologique, financière, pour ne citer que celles-ci, et permet ainsi à l’intelligence artificielle d’être présente dans tous les aspects de la vie quotidienne. Mais alors, qu’en est-il de ma vie privée, celle qui me donnait l’impression d’entretenir une certaine liberté, une intimité précieuse, une occasion de laisser libre cours à mes pensées et me laissant maître de mon destin ?

Beauté et Pouvoir

3ème kilomètre, j’aborde un sentier boisé de sapins, l’intensité de la verdure de la mousse me fascine, et la prolifération de dizaines de champignons me donnent tant envie de m’arrêter et de partir à la cueillette: cette nature est si belle et précieuse. Monétisation de la vie, organisation algorithmique de la société, vision utilitariste du monde, ces mots forts employés par Eric Sadin font état d’une réalité bouleversante. En effet, l’invasion de l’intelligence artificielle à tous les aspects de nos vies lui permet d’adopter un rôle de plus en plus important dans la prise de décision, relayant de fait l’être humain à l’état d’automate. La décision ne nous appartient plus, le système d’intelligence artificielle nous connaît mieux que nous et décide ainsi pour nous.

Le brouillard est de plus en plus épais, la visibilité amoindrie, et je débute à tâtons ce quatrième kilomètre quand soudain je m’aperçois, au milieu du champ, que je suis entourée de vaches. Passons doucement, il ne s’agirait pas de les déranger. Ce brouillard, qui titille mon acuité visuelle, n’est rien en comparaison avec le brouillard auditif et intellectuel que l’écoute des mots de Monsieur Sadin provoque en moi. Bien qu’ayant quelques notions relatives à l’intelligence artificielle, jamais je ne m’étais véritablement interrogée sur les implications actuelles et futures de son développement.

Je m’oblige alors à imaginer un monde dominé par l’intelligence artificielle, vaste tâche. Dès mon réveil, mes vêtements connectés feraient une analyse de mon état général physiologique, mon miroir de l’état de santé de mes yeux, ma montre connectée de ma fonction cardiaque, du nombre de calories que je dépense. Mon réfrigérateur m’indiquerait exactement quels ingrédients et en quelle quantité je dois les manger. Une fois habillée, suivant la tenue suggérée par mon miroir intelligent, je m’élancerais dans ma GoogleCar qui me conduirait ainsi sur mon lieu de travail. Elle m’indiquerait notamment les rendez-vous de la journée, les endroits où je devrais déjeuner en fonction de l’état actuel de mes comptes bancaires. Je disposerais tout naturellement d’une liste de courses et de l’adresse du supermarché où je devrais les effectuer le soir. Enfin, mon adorable assistant me suggérerait des idées de loisirs pour la fin de la semaine et m’organiserait même des rendez-vous galants.

Fantastique me dira-t-on ! Et j’aimerais alors rétorquer: que restera-t-il de l’usage de mon libre arbitre, de ma capacité réflexive, en somme de l’usage de mon intelligence ? N’avons-vous pas davantage d’amour pour notre condition d’homme pour refuser d’être l’automate d’une machine qui nous dicte en temps réel, sous couvert d’une soi disant bienveillance et assistance, toutes les actions à entreprendre ?

Relâchement et Espoir

Kilomètre 5, j’amorce une descente avant de prendre le chemin du retour. La pluie battante s’abat sur mon visage, et pendant un instant je décroche du cynisme auquel je m’étais abandonnée. Après tout et à part la mort, rien n’est inéluctable dans la vie et il ne tient qu’à une volonté d’emprunter un chemin différent de la voie principale. C’est un appel à la réaction, au questionnement dont il est fait état ici. C’est justement à cet instant que je me rappelle d’une idée évoquée par un philosophe profondément engagé dans le questionnement du développement de l’intelligence artificielle : Gaspard Koenig. Ce dernier proposait en effet un système dans lequel nous ferions des données personnelles une propriété privée, son usage serait ainsi contrôlé par chaque individu. De même, il préconisait la création de systèmes d’intelligence artificielle humanisés en ce sens qu’il faudrait leur appliquer nos propres paramètres, si imparfaits soient-ils, emprunts de subjectivité et d’incohérence.

Ah oui, me dis-je, mais les exemples des biais de l’intelligence artificielle ne sont-ils pas justement en partie dus à cette part d’humanité au sein de ces systèmes ? N’est-ce pas justement parce ce dernier a été mal orienté, parce que des éléments ont été omis dans la construction de l’algorithme que ces affreuses conséquences peuvent arriver ? N’est-ce pas parce que les algorithmes reposent sur une quantité impensable de données diverses, variées et évolutives qu’ils parviennent à des conclusions inacceptables ? Par exemple, les algorithmes de la société Northpoint, utilisés par la justice américaine dans la prédiction de la récidive pénalisaient davantage la population afro-américaine, en surestimant ce risque de récidive et en le sous-estimant pour les populations blanches. Cela s’est notamment produit en raison des informations mises à disposition dans la base de données de ce système.

De même, en 2015 Amazon utilisait un algorithme dans un système de recrutement de nouveaux candidats. Ce dernier avait été construit sur la base des curriculum vitae reçus par l’entreprise pendant dix ans. L’algorithme sélectionnait majoritairement des hommes car les données sur lesquels il se basait faisaient état de l’écrasante majorité des cadres hommes recrutés dans le passé, ne laissant ainsi aucune chance aux nouvelles candidates pourtant qualifiées.

Est-il alors souhaitable d’intégrer ses biais cognitifs dans les algorithmes ? Je n’en suis pas sure. Les systèmes d’intelligence artificielle devraient plutôt être des systèmes parfaits, d’une perfection à la hauteur de la responsabilité que leurs décisions auront sur nos vies. Mais alors, un nouveau questionnement me submerge: comment peut-on croire que nous parviendrons à rendre un système d’intelligence artificielle exempt de toute humanité et donc exempt de tout danger alors même que nous en sommes les créateurs ? Comment penser que l’homme puisse véritablement comprendre et adopter toute l’objectivité dont ces systèmes font preuve ? Enfin, comment peut-on naïvement penser que nous arriverons également à mettre dans ces systèmes tous les aléas futurs, par nature imprévisibles ?

Obstacles et Danger

Les péripéties s’accumulent entre flaques d’eau, boue, gadoue, j’accélère le pas et durant ces trois kilomètres, j’assimile l’ampleur du problème et la grandeur de la cause qui en émane. L’interview de cet éminent philosophe se poursuit sur le fonctionnement de l’intelligence artificielle qui, en s’appuyant sur ces systèmes de collecte de données, permet d’interpréter les situations en temps réel et détermine les actions pertinentes à entreprendre. Ainsi, il est expliqué que ces systèmes réduisent petit à petit l’être humain à l’état de robot : il est dépourvu de toute spontanéité, inventivité, subjectivité, son comportement tend à la banalisation et à l’institutionnalisation. Des souvenirs d’un épisode de la série sinistrement visionnaire Black Mirror me viennent à l’esprit, et la création du crédit social en Chine en est un exemple poignant d’application réelle.

Je me souviens de cet épisode dans lequel l’accès des personnes aux services sociaux et sanitaires est conditionné par la note dont ils bénéficient en fonction de leurs comportements et attitudes en société. Cet épisode dénonce toute justement une rationalisation et une monétisation de la vie humaine. Tous les individus ont des comportements homogènes, standardisés, conditionnés par la volonté d’avoir une bonne note. Adieu mauvaise humeur, gros mots, disputes et réconciliation, désaccords : tout n’est que sourires, compliments, tout n’est qu’hypocrisie, intériorisation et mal être profond.

A l’état d’utopie, cela interpelle sans pour autant alerter. A l’état de réalité, cela doit choquer et c’est justement ce passage de la fiction à la réalité dont il est fait état en Chine, notamment avec l’adoption du crédit social. En effet, ce système repose sur une note attribuée à chaque citoyen en fonction de ces attitudes en société : payez vos factures à temps, faites du bénévolat, ne manifestez pas d’opinions contraires à celles du gouvernement et vous bénéficierez de réductions sur des prix des transports public ou d’un accès facilité aux services hospitaliers. Grillez un feu rouge parce que vous êtes en retard, achetez trop de jeux vidéos et vous ne bénéficierez pas d’une augmentation salariale, ne pourrez pas prendre l’avion, aurez un accès à un internet ralenti et vos enfants n’iront pas dans de bonnes écoles.

L’établissement de ce crédit social s’appuie essentiellement sur les systèmes d’intelligence artificielle qui traitent les données provenant des activités de surveillance des citoyens, mais également dans la mise en place de systèmes de reconnaissance faciale. Alors oui, la Chine est un pays profondément marqué par une culture confucianiste, prônant l’unité d’un collectif rationnalisé plutôt que l’expression chaotique de l’individualité, mais tout de même ! Ca y est, le cap est passé, la fiction est devenue réalité. Voici le premier modèle d’une société épiée, contrôlée dans laquelle la vie est privée est une liberté profondément bafouée, enterrée, oubliée. Est-ce cela que nous souhaitons?

Amorçant le huitième kilomètre, j’écoute toujours avec attention monsieur Sadin énonçant la fable de la complémentarité homme-machine selon laquelle l’homme, avide d’intelligence artificielle, persiste toutefois dans son autonomie face à ce système. Comme très justement souligné, il s’agit d’un mythe puisque nous laissons de plus en plus de marges de développement à l’intelligence artificielle qui induit ce qu’Eric Sadin appelle « un tournant injonctif de la technique ».

Comment oser parler de complémentarité lorsque de nombreux constats illustrent la perte avérée de contrôle et de compréhension de ces systèmes d’intelligence artificielle? Par le développement accéléré des réseaux de neurones artificiels toujours plus sophistiqués, des systèmes d’intelligence artificielle parviennent désormais à des raisonnements et des prises de décision qui échappent complètement à notre entendement. Je me souviens alors d’un exemple de la NASA qui utilisait l’intelligence artificielle pour piloter ses robots et analyser des millions de photos dans l’espace.

Elle constatait déjà un risque de cette perte de contrôle, notamment lors de l’une de leur mission durant laquelle le véhicule, piloté par un système d’intelligence artificielle, s’était jeté dans le vide et écrasé. Le système d’intelligence artificielle avait en effet pris une décision que les ingénieurs ne pouvaient expliquer. Plus inquiétant encore était le fait que ces systèmes détectaient lorsqu’un humain tentait de modifier leurs comportements, faisant ainsi tout pour rejeter ou contourner cette intervention. Pour contrôler cette intelligence artificielle ou pouvoir la modifier, il faudrait donc faire preuve de subtilité en effaçant ensuite toute trace d’intervention humaine. Jusqu’à quel point cela va-t-il être envisageable ?

Faut-il alors vraiment encore encourager son développement à tous les aspects de notre quotidien ?

A cet instant, je suis convaincue de l’exactitude des paroles de ce philosophe et me sens d’ores et déjà partisane et activiste d’un mouvement allant à contre-courant.

Stabilisation et Réaction

C’est justement à l’apparition de ce sentiment d’appartenance et de nécessité d’action que, comme un heureux hasard, j’écoute l’invitation de Monsieur Sadin à imaginer un monde fondé sur autre chose que la rationalisation de la société, faisant la promotion de notre diversité, polyvalence, intelligence, spontanéité, en somme de notre humanité. Neuvième kilomètre au compteur, je stabilise mon rythme à mesure que je m’accoutume à cette idée de révolte, à ce système réactionnaire auquel j’aimerais prendre part. « La perte de notre faculté à dire non aux systèmes qui bafouent notre intégrité humaine ; au nom du discours de l’inéluctable se développent des formes d’apathies » énonce cet éminent philosophe. « Mais oui, c’est exactement cela ! » me dis-je. Il faut agir ! Est-ce vain ? Illusoire ? Utopiste ? Qu’importe, la passiveté n’a jamais été, à mon sens, une attitude porteuse.

Adopter une attitude critique vis-à-vis de l’usage que nous en faisons, s’informer de son fonctionnement et de ses développements et surtout ne pas se laisser berner par l’apparente incompréhension de ces systèmes. S’informer, débattre sur ce sujet, c’est déjà mener un combat pour notre humanité.

Arrivée et Réalisme

Me voici sur le point d’amorcer mon dixième et ultime kilomètre, un sentiment de satisfaction dans l’âme. Après m’être confrontée aux aléas naturels, à la beauté simple et bouleversante d’un environnement si divers et foisonnant je me sens purifiée, libre et forte. Je me remémore en guise de conclusion cette phrase prononcée par Eric Sadin, « plus on nous dessaisi de notre capacité d’action et de décision, plus il faut être agissant ». Je deviens intimement convaincue qu’il est important de marquer une tendance qui va à l’encontre du discours habituellement servi, promouvant toujours davantage le développement de l’intelligence artificielle. Il ne s’agit pas de faire preuve d’hypocrisie ou d’utopisme car nous sommes déjà tous concernés et envahis par l’intelligence artificielle. Il ne s’agit pas de se replier entièrement sur nous-mêmes et de bannir complètement et immédiatement nos liens avec les technologies et leurs devenirs.

En revanche, il ne tient qu’à nous d’en saisir les dérives et de proposer un véritable système alternatif. L’heure est à la sauvegarde et à la promotion de notre humanité, et ceci devrait s’effectuer par la création d’une société qui recule face à une technologie trop invasive et dangereuse. L’heure est aussi à l’arrivée de ma course et à la perspective de la chaleur du foyer, plaisir automnale décuplé au retour d’une escapade humide. Bien que la course s’arrête, l’émulation intellectuelle induite par cette interview persiste. Je n’ai pas, pour le moment, d’idées précises face au phénomène d’asservissement induit par l’intelligence artificielle, mais intuitivement je pense que la vision du monde sera scindée entre une majorité techno-libérale aveuglée par la puissance d’un système et une minorité qui récusera ce système en repensant notre façon de vivre.

Il est difficile d’envisager l’entre-deux proposé par Gaspard Koenig en ce sens que la direction actuelle empruntée par les concepteurs d’intelligence artificielle tend justement à en faire un système parfait, cohérent, rationnel. Comment alors, allons-nous faire cohabiter deux systèmes d’intelligence artificielle au sein d’une même société ? Par exemple, comment une personne qui souhaite conduire dans une voiture non autonome dans une smart city peut, concrètement, interagir avec les usagers intégrés au système ? Comment articuler une société avec deux intelligences artificielles, l’une majoritaire, rationalisée, et une autre minoritaire emprunte d’individualité ? L’hypothèse d’un système complètement intégré, dont l’appartenance serait conditionnée par le respect de ces critères ultra rationnalisés, est une hypothèse plus probable.

Repos et Questionnement

L’écoute de cette interview et l’étude approfondie des dérives liées au développement de l’intelligence artificielle a fait jaillir un questionnement dont je n’ai pas encore trouvé la réponse. Alors que j’enlève mes chaussettes humides, je m’installe près de la cheminée et en observant ses flammes jaillirent de toutes parts entre les buches de bois, je vous le pose : pourquoi n’a-t-on de cesse de substituer l’homme par la machine ? Aux premières évolutions, il s’agissait de gagner en confort, en productivité et en rapidité. Mais à l’heure actuelle, quel est l’objectif poursuivi par l’intelligence artificielle ? Le jeu en vaut-il la chandelle ? N’y-a-t-il pas finalement dans l’intelligence artificielle un rejet de notre condition d’être humain, un manque d’amour vis-à-vis de nous même ? N’y-a-t-il pas non plus dans l’intelligence artificielle une institutionnalisation de la paresse et ce quelque soit les aspects de notre vie ? L’évolution technologique est-elle toujours la marche à suivre ?

Passivement et de façon quotidienne nous taisons toujours davantage la diversité de notre humanité, sa subjectivité et ses particularismes. Passivement et de façon quotidienne nous encourageons une société dans laquelle nous n’aurons plus rien à faire ni à penser. Non ! Réveillons-nous, cultivons le doute face à la banalité et l’humanité face au monde rationnalisé. Une chose est certaine, je ne sais encore que faire mais je sais qu’il faut faire. Peut-être pourrions-nous développer d’autres formes d’éducation ? A l’heure actuelle nous valorisons notre intelligence par sa capacité de calcul et de mémorisation, ce que la machine fait en réalité déjà bien mieux que nous. Ainsi, revaloriser notre intelligence consisterait notamment à développer ce que la machine ne sait pas faire : encourager l’intelligence collective, l’intelligence émotionnelle, susciter notre curiosité, travailler notre scepticisme, se considérer comme acteur de la société, tout cela seraient de possibles inspirations.

Enfin, à ceux qui développent ces systèmes d’intelligence artificielle j’oserais leur intimer de faire preuve d’une réflexion profonde et d’une extrême prudence quant à la création de ces systèmes. L’exemple des graves biais émanant de ces systèmes justifie l’exigence dont il faut faire preuve en la matière. En effet, une intelligence artificielle mal documentée, mal orientée peut aboutir à des décisions très dangereuses. Cette prudence ne doit pas uniquement se manifester à l’heure de la création du système mais également dans son suivi pour ne jamais perdre le fil, pour ne jamais se laisser dépasser par les raisonnements de l’intelligence artificielle : mais comment contrôler un système que l’on veut, par nature, plus grand que nous ?

Par Alexia de Rechapt, promotion 2019-2020 du M2 IESCI

Bibliographie/Webographie :

Eric Sadin – Podcast Thinkerview « l’asservissement par l’intelligence artificielle ».

Gaspard Koenig – « La fin de l’individu ».

https://www.sciencesetavenir.fr/high-tech/intelligence-artificielle/les-algorithmes-sont-partout-leurs-biais-nous-trompent_131820

https://www.nouveau-magazine-litteraire.com/idees/en-chine-un-systeme-de-credit-social-reglera-la-vie-des-citoyens

https://blogs.alternatives-economiques.fr/reseauinnovation/2019/11/14/le-risque-de-l-intelligence-artificielle-une-perception-contradictoire

https://theconversation.com/intelligence-artificielle-combattre-les-biais-des-algorithmes-125004

https://www.sciencesetavenir.fr/high-tech/intelligence-artificielle/les-algorithmes-sont-partout-leurs-biais-nous-trompent_131820

L’article Invitation à la recherche de nouveaux imaginaires est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Comprendre le Processus d’un Projet en Business Intelligence https://master-iesc-angers.com/comprendre-le-processus-dun-projet-en-business-intelligence/ Tue, 29 Oct 2019 14:54:13 +0000 https://master-iesc-angers.com/?p=3059 Pour comprendre la Business Intelligence (BI[1]), il convient tout d’abord de définir la Donnée. La Donnée, ou « DATA », est un terme emprunté aux Anglais pour désigner les données dans le domaine informatique. La Data est une information ou un ensemble… Continuer la lecture

L’article Comprendre le Processus d’un Projet en Business Intelligence est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Pour comprendre la Business Intelligence (BI[1]), il convient tout d’abord de définir la Donnée. La Donnée, ou « DATA », est un terme emprunté aux Anglais pour désigner les données dans le domaine informatique.

La Data est une information ou un ensemble d’informations, sensible[2] ou non, collectée sur un individuune machine, un outil, un produit ou un service via une application à des fins d’utilisations diverses. Son usage, sa gestion et sa sécurité sont capitales pour les entreprises car, répondant à leurs besoins, elle leur permet d’accroitre leur chiffre d’affaires. Dans un service de vente ou sur un site d’achat, par exemple, les données recueillies comprennent généralement l’historique et la catégorie des achats, le modèle, le nom et/ou la marque de chaque produit acheté afin de permettre la réalisation de prévisions et la détermination de catégories d’individus prétendant à l’achat de tels produits à partir des données d’intention d’achat obtenues.

La Business Intelligence, aussi appelée informatique décisionnelle, est l’analyse de données structurées réalisée par des outils technologiques, fondée sur des pratiques techniques et des méthodes fonctionnelles offrant de l’information utile à tous les groupes de travail dans leurs prises de décisions au profit de leur entreprise.

Pour comprendre la Business Intelligence, il est important de comprendre l’usage de la donnée qui est réalisé au sein de l’entreprise à travers des outils informatiques, comme le montre le schéma simplifié ci-dessous. Ce système informatique n’étant pas techniquement et de façon pratique simple à mettre en place, contrairement à ce que l’on imagine en théorie, nous mettrons dans cet article l’accent sur son cycle de vie au sein de l’entreprise. Nous citerons et expliquerons le rôle de chacun des outils utilisés pour chaque étape du traitement de la donnée. Nous analyserons également l’importance de sortir des méthodes relationnelles traditionnelles avec le client et d’adopter des méthodes sous forme d’itérations dites Agiles.

1-    Analyse de l’information

Le passage à l’analyse de données (Cf. schéma ci-dessous) ne se décide pas précipitamment car elle demande la réalisation d’une analyse de l’information, qui se traduit dans un premier temps par le discernement et la connaissance du besoin du client et du métier, puis par la formulation de ce besoin, par la collecte d’informations appropriées et enfin par la définition de ce besoin. Cette définition du besoin est identifiée dans les grandes lignes d’un document, appelé CDC[3], Cahier des Charges, permettant le chiffrage du projet. Ce cahier des charges devient alors un support pour définir le DEB[4], Document d’Expression du Besoin, rédigé par la MOA[5], c’est-à-dire le client. Ce document contient de manière générale la rédaction théorique du Besoin de la MOA et peut être enrichi par un AMOA[6], un consultant fonctionnel (CF[7]) interne ou un prestataire[8] lors de la phase de cadrage du projet. Il permet de construire les maquettes et spécifications fonctionnelles du projet reprises dans le DFB[9], le Document Fonctionnel du Besoin, dans lequel sont définies : les règles de gestion, la structure des données, les schémas des tables traitées dans la base de données, les interactions des tables entre elles et des utilisateurs ainsi que la forme que peut avoir la solution. Ce même document, le DFB, permet à la MOE[10], l’équipe de développement, d’avoir un support pour réaliser le DCG[11], Document de Conception Général, qui induit une étude générale de conception architecturale du projet et de ses STD[12], Spécifications Techniques Détaillées, afin de permettre aux développeurs d’être en adéquation avec le résultat attendu : la solution finale. Les spécifications détaillées permettent à l’équipe de Maintenance d’assurer la maintenance corrective et évolutive de la solution lorsqu’elle est mise en place.

La définition du besoin, la collecte et l’analyse de l’information constitue la première partie d’un projet en Business Intelligence. Mais ne se limitant pas là, nous en étudierons à présent la seconde partie qui s’intéresse à la transformation de l’information, à l’analyse de données puis à leur synthétisation en plusieurs livrables ou rapports stratégiques. Cette transformation se fait de façon technique via des outils informatiques (Cf. Schéma ci-dessous).

2-    Analyse de données

L’analyse de données se résume de façon simplifiée à l’ETL[13], Extraction-Transformation-Chargement des données, que nous allons définir. Préalablement, il s’avère important de nettoyer les données qui peuvent avoir différents types d’erreurs : un processus permet d’identifier les données erronées et de les corriger de manière automatique grâce à un programme informatique ou manuellement, avant leur usage par l’ETL. Les données ne provenant pas toutes de mêmes sources, il existe en réalité différentes manières d’extraire des données. Ainsi, en observant le schéma le plus simple de la BI, nous constatons que la donnée peut venir de bases de données ou de fichiers structurés (xls, csv, xml, json, …), de façon directe ou par l’intermédiaire de logiciels (ERP, CRM,…). N’ayant été soumise à aucun traitement ou manipulation, c’est une donnée brute, qui peut être entrée dans le programme informatique d’outils décisionnels, appelé ETL, tels qu’Informatica Power Center ou Talend par exemple, pour subir des transformations en données statistiques (Cf. Schéma ci-dessous). Ces technologies transforment la donnée selon le besoin client, décrit dans les documents précédemment cités dans la présentation de l’analyse de l’information. Après ce processus de transformation initié par l’ETL, la donnée est directement chargée dans un entrepôt de données appelé DWH[14], Data WareHouse. Dans cet entrepôt, n’est stockée que de la donnée prête à être restituée en analyse via des documents de synthèse. Les livrables contenant de la donnée statistique issue du Data Warehouse sont alors réalisés par des outils décisionnels, appelé outils de restitution, sous forme documentaire, tels que SAP BI ou Cognos par exemple, ou sous forme applicative, tels que QLik ou Power BI, dans lesquels les données sont notamment présentées sous forme graphique (histogrammes, camemberts, …). Ces IHM[15] doivent être en conformité avec la demande exprimée par le client dans les documents DCG, DFB et DEB régulièrement mis à jour selon les nouvelles demandes exprimées par la MOA.

3- Méthodes Agiles

Par ailleurs, à présent, dans les entreprises, on se rend compte que la méthode traditionnelle du cycle de vie de la BI, basée sur un cycle de développement en cascade[16], est très lourde, puisqu’on observe que le temps qui s’écoule entre le moment où le client exprime son besoin et la livraison est très long, et admet difficilement une souplesse vis-à-vis de l’évolution du besoin du client. Ces méthodes et stratégies employées manquent ainsi souvent de transparence et de compréhension du besoin de la MOA. La participation du client lors des phases de développement du produit est en effet quasiment inexistante : la communication entre celui-ci et les équipes fonctionnelles et de développement est souvent très limitée, malgré une demande de souplesse du client vis-à-vis de l’évolution de son besoin et une exigence du respect des délais de livraison. Il en résulte généralement que les livrables ne sont pas conformes aux attentes exprimées par le client, générant alors tensions, perte de temps, d’argent et de confiance, voire même une rupture entre le client et l’entreprise de prestation.

Pour pallier à tous ces problèmes, en février 2001, dix-sept experts du domaine informatique, spécialistes du développement logiciel aux Etats-Unis, ont publié un manifeste pour le développement agile de logiciels, rendu public sous le nom de Manifeste Agile. Plusieurs méthodes dites agiles, présentées ci-dessous, y sont ainsi décrites. Ces experts, considérant que la méthode traditionnelle ne correspondait plus aux exigences des organisations, ont estimé qu’elles devraient se tourner vers de nouvelles pratiques. Les entreprises étant en effet entrées dans une nouvelle ère, où elles sont soumises à une évolution permanente et rapide de leur environnement, il est alors important de développer des méthodes de travail et de gestion de projets permettant de s’adapter à ces évolutions technologiques, sociétales et organisationnelles, ce à quoi répondent les méthodes agiles.

Ces méthodes sont un ensemble de pratiques de pilotages de projets, pensées de manière pragmatique, impliquant directement le client afin de permettre aux équipes de réalisation de concevoir et développer avec réactivité la demande exprimée par le client. Ces méthodes demandent l’implication de toutes les équipes concernées : MOA[17], AMOA[18], CF[19], CP[20] et Développeurs des équipes supports (déploiement, système, …) qui interagissent de façon importante, tous impliqués dans l’avancement, le planning et les revues de sprint notamment des projets (Cf. schéma ci-dessus, page 5), ayant un objectif commun de travail, en toute transparence et usant de souplesse, répartissant les tâches par priorité et effectuant des points réguliers sur l’avancement du projet, car le résultat visé est de répondre aux attentes du client en développant une confiance mutuelle et des échanges enrichissants pour les deux parties. Ce cycle de développement itératif, incrémental et adaptatif doit alors respecter certaines valeurs communes et/ou complémentaires.

Les valeurs fondamentales des méthodes Agiles, au nombre de quatre, détaillées en douze principes résumés en quelques lignes dans le paragraphe ci-dessous, sont : favoriser davantage l’interaction entre les individus que les processus et les outils technologiques ; privilégier un logiciel qui fonctionne plutôt qu’une documentation exhaustive ; préférer la collaboration avec les clients que la négociation contractuelle ; et enfin opter pour l’adaptation au changement plutôt que suivre un plan.

Lors d’un projet décisionnel, il est important de se focaliser et de mettre en application ces valeurs non seulement afin de créer une harmonie et une symbiose entre les équipes mais aussi pour obtenir un résultat final très satisfaisant. Les principes issus de ces valeurs sont alors centrés sur l’autonomie des ressources humaines, sur le dialogue et la communication en face-à-face ainsi que sur le maintien d’un rythme soutenable dans le processus de développement. Les équipes doivent développer des compétences techniques et managériales afin de devenir plus efficaces dans chaque étape de développement du produit opérationnel jusqu’à sa livraison. Enfin, les équipes seront capables de s’adapter à leur environnement et de modifier en conséquence leur mode fonctionnement, tel que le pratiquent les équipes travaillant par exemple sur le projet SID chez EOLE Consulting. Dans ce projet, les équipes travaillent en symbiose, s’appuient sur des outils de développement, de gestion de projets, favorisant les tâches définies prioritaires, en usant de méthodes plus souples et de communication en face-à-face, c’est-à-dire en proximité avec les métiers : ce projet est réalisé en méthode Agile, ce qui permet à EOLE de répondre efficacement aux attentes du client et de renouveler sa confiance.

Un projet BI peut ainsi être réalisé selon des méthodes pouvant être qualifiées d’agile, c’est par exemple le cas des RAD (Rapid Application Development), DSDM (Dynamic System Development), ASD (Adaptive Software Development), FDD (Feature Driven Development), BDD (Behavior Driven Development) et Crystal Clear. Deux de ces approches de méthodes agiles, de développement d’application ou d’amélioration continue, sont particulièrement utilisées actuellement : il s’agit de la Méthode Extreme Programming (XP), qui concerne la réintégration immédiate des processus de développement, et de la Méthode Scrum, qui concerne l’amélioration continue ; qui toutefois sont complémentaires, la méthode XP proposant les techniques d’obtention de la qualité du code complémentaire à Scrum dans un projet BI ou de système d’information.

Conclusion

Un projet Business Intelligence comprend ainsi deux grandes phases différentes et complémentaires : l’« Analyse de l’Information » et l’« Analyse de Données ». La première partie, l’Analyse de l’Information est axée sur des connaissances théoriques et des compétences relationnelles mais sur peu d’expertise technique : la connaissance du métier, du secteur d’activité, du marché et du management de projet sont ici très importantes. La seconde partie, l’Analyse de Données, est quant à elle davantage axée sur des connaissances techniques et sur une grande capacité d’adaptation aux nouvelles technologies et aux outils informatiques. Il s’avère néanmoins que ces deux phases peuvent être envisagées tant selon des méthodes traditionnelles, longues et coûteuses, que selon des méthodes Agiles, facilitant la collaboration entre les équipes pour un résultat apprécié. Nous préconisons donc d’utiliser la méthodologie Agile lors d’un projet BI en y formant les équipes du projet et y sensibilisant le client, les qualités importantes de la Business Intelligence résidant aujourd’hui dans sa capacité à faire appel à de nombreuses ressources et compétences théoriques, techniques et relationnelles en les intégrant et développant leur interaction au sein d’un même projet, permettant ainsi d’accroître la compétitivité de l’entreprise. La Business Intelligence est pour toutes ces raisons actuellement l’un des domaines les plus créateurs d’emploi.

Par Hasmiou Diallo, promotion 2015-2016 du M2 IESCI et Consultant BI chez EOLE Consulting

[1] BI : Business Intelligence

[2] Sensible : c’est-à-dire ici privée, on non sensible : publique

[3] CDC : Cahier des Charges

[4] DEB : Document d’Expression du Besoin

[5] MOA : Maîtrise d’Ouvrage

[6] AMOA : Assistant Maitrise d’Ouvrage

[7] CF : Consultant Fonctionnel

[8] Prestataire : Consultant d’une entreprise de Prestation

[9] DFB : Document Fonctionnel du Besoin

[10] MOE : Maîtrise d’œuvre (équipe de développement)

[11] DGC : Document de Conception Général

[12] STD : Spécifications Techniques Détaillées

[13] ETL : Extraction-Transformation-Chargement

[14] DWH : Data WareHouse

[15] IHM : Interface utilisateur ou de communication qui relie l’homme et la machine.

[16] Cycle de développement en cascade : Organisation d’un projet sous forme de phases linéaires et séquentielles, où chaque phase correspond à une spécialisation des tâches et dépend des résultats de la phase précédente.

[17] MOA : Maitrise d’Ouvrage (client)

[18] AMOA : Assistant Maitrise d’Ouvrage

[19] CF : Consultant Fonctionnel

[20] CP : Chef de Projet

L’article Comprendre le Processus d’un Projet en Business Intelligence est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Le Big Data agricole https://master-iesc-angers.com/le-big-data-agricole/ Mon, 21 Oct 2019 11:42:55 +0000 https://master-iesc-angers.com/?p=3054 L’agriculture fait face à de nombreux défis, que ce soit en France ou à l’international, avec en premier lieu, la nécessité de nourrir 9,7 milliards d’individus à horizon 2050. Mais au niveau global, ces défis s’accompagnent de contraintes non négligeables… Continuer la lecture

L’article Le Big Data agricole est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
L’agriculture fait face à de nombreux défis, que ce soit en France ou à l’international, avec en premier lieu, la nécessité de nourrir 9,7 milliards d’individus à horizon 2050. Mais au niveau global, ces défis s’accompagnent de contraintes non négligeables telles que la gestion des effets du réchauffement climatique, de la pression sur la ressource en eau ou encore de la diminution des terres disponibles. En France, l’agriculture va également devoir veiller à améliorer sa compétitivité, notamment face à ses voisins européens face à qui elle a perdu du terrain depuis quelques années. Comme partout dans le monde, l’agriculture française va également devoir travailler son attractivité auprès des jeunes générations, en réduisant par exemple la pénibilité du travail agricole ou en offrant la possibilité aux agriculteurs d’avoir plus de temps de loisir. A l’aval, le monde agricole va devoir également s’adapter aux exigences de plus en plus pointues des consommateurs vis à vis de leur alimentation, que ce soit en termes de qualité ou de traçabilité.

Si un grand nombre de problèmes apparaissant dans les exploitations agricoles ont jusqu’à présent été gérés grâce à la propre expertise et l’expérience des agriculteurs, l’émergence de nouvelles technologies telles que l’Internet des objets et l’intelligence artificielle leur permettent dorénavant d’adopter une approche fondée sur les données. Alors que l’intelligence artificielle est apparue au milieu des années 50, ses récents développements, notamment en matière de deep learning, vont permettre d’apporter la pierre qu’il manquait à l’édifice de l’agriculture de précision. En effet, alors que les exploitations agricoles vont produire de plus en plus de données grâce à l’explosion du nombre de capteurs et la numérisation de l’activité agricole, ce big data agricole va pouvoir nourrir de nombreux algorithmes basés sur des techniques de machine learning et de deep learning. Grâce à ces algorithmes, les agriculteurs vont pouvoir bénéficier d’une aide précieuse dans leur activité quotidienne, que ce soit à travers l’autonomisation des robots agricoles, la surveillance en temps réel de leurs animaux ou encore l’analyse de leurs cultures grâce à des drones ou des satellites tout en améliorant leur empreinte écologique, etc.

L’agriculture numérique

La révolution numérique touche tous les secteurs de l’économie, y compris l’agriculture. On parle aujourd’hui « d’agriculture numérique », c’est-à-dire d’une agriculture qui utilise les technologies de l’information et de la communication (TIC) : technologies d’acquisition de données (satellites, capteurs, objets connectés, smartphones…), de transfert et de stockage (couverture 3G/4G, et bientôt 5G, réseaux bas débits terrestres ou satellitaires, clouds) et technologies de traitement embarquées ou déportées (supers calculateurs accessibles par des réseaux de communication très haut débit). Ces technologies peuvent être mises en œuvre à toutes les échelles de la production agricole et de son écosystème, que ce soit au niveau de l’exploitation (optimisation des opérations culturales, de la conduite de troupeau…), dans les services d’accompagnement (nouveaux services de conseil agricole basés sur des données collectées automatiquement), ou à des échelles plus grandes comme dans un territoire (gestion de l’eau) ou dans une chaîne de valeur (amélioration des intrants comme par exemple les semences, meilleure adéquation entre la production et le marché…).

L’agriculture numérique a été initiée il y a plus de quarante ans avec les premiers programmes de satellites civils d’observation de la terre. Son développement s’est poursuivi avec l’explosion des capacités de calcul dans les années 1980 (premiers modèles numériques de cultures, systèmes experts, lancement de l’agriculture de précision) et, plus tard, avec de nouvelles opportunités technologiques comme les smartphones, les communications par satellite, le GPS, de nouveaux satellites équipés de capteurs plus sophistiqués (multi longueurs d’onde, radar…) et, enfin, dernièrement avec les objets connectés. Nous sommes donc aujourd’hui dans une conjoncture très favorable pour l’agriculture numérique, au croisement de processus d’innovation technology push et market pull. Les TIC sont considérées comme des opportunités pour l’agriculture aussi bien pour les pays européens que pour les pays en développement dans lesquels « les contributions des TIC à l’agriculture sont à la fois en évolution rapide et mal comprises, avec des questions en suspens sur la manière de rendre ces innovations réplicables, évolutives et durables pour une population plus nombreuse et plus diversifiée ». Par ailleurs, « l’agriculture et l’alimentation numérique » sont identifiées comme l’un des dix domaines clés des technologies numériques, avec trois domaines d’intérêt : robotique, agriculture de précision et big data. L’agriculture s’empare donc de ces dispositifs qui produisent des masses de données toujours plus grandes à partir desquelles la connaissance peut être extraite grâce à des techniques de fouille de données (data mining).

Quelques exemples de techniques d’utilisation du big data dans l’agriculture

Nous vous présentons quelques projets développés ces dernières années sur le big data agricole. La plupart sont mis en oeuvre par des start-up françaises.

La numérisation du temps du pâturage du troupeau

L’entreprise Applifarm spécialisée dans le secteur d’activité de la programmation informatique, notamment dans le big data agricol, a développé Smart Grazing, un nouveau module de monitoring du temps de pâturage via des colliers connectés développés avec la collaboration de DigitAnimal, l’Institut de l’élevage, Sigfox et Bureau Veritas. Cette nouveauté géolocalise les animaux via le traitement des données GPS pour simplifier la gestion du temps de pâturage pour les éleveurs, les coopératives et les transformateurs. Elle permettra également de connaître en temps réel la position du troupeau.

Le temps de pâturage d’un troupeau entre dans de nombreux cahiers des charges de transformateurs (laiteries, abattoirs, etc.), nécessitant la tenue d’un carnet de pâturage par les éleveurs. Plutôt que de tenir un registre « papier » ou de cocher les dates sur un calendrier, il existe une solution numérique apportant de multiples avantages, tant à l’éleveur qu’aux gestionnaires du cahier des charges.

Un algorithme calcule au fur et à mesure le temps de pâturage du troupeau, pour connaître le nombre effectif de jours de présence en pâture, localiser les prairies ou les paddocks, ou encore calculer les surfaces associées. Grâce à ces données et à l’équipement des colliers, l’éleveur constitue automatiquement un carnet de pâturage numérisé.

Pour les opérateurs de la filière, cette solution offre une garantie du temps de pâturage, pouvant servir à la labellisation du lait (pâturage local, lait de foin, respect de réglementations, zones de collecte).

Avec sa betterave connectée, Tereos se rapproche des exploitants

Grâce à sa betterave connectée, le groupe coopératif Tereos entame une nouvelle phase dans sa relation avec les agriculteurs. Ces derniers peuvent désormais bénéficier de conseils personnalisés pour améliorer leur rendement en sucre, et accroître leurs revenus. Comment ? Grâce aux résultats remontés sous forme de graphiques par la betterave connectée sur les conditions de récolte.

Cet objet est issu de recherches menées depuis une quinzaine d’année sur les phénomènes biologiques de la betterave et la manière de conserver son sucre après la récolte. Le groupe qui rassemble 12 000 coopérateurs, transforme au total 19,8 millions de tonnes de betteraves pour produire plus de 2 millions de tonnes de sucre par an en France.

Pour analyser les causes des chocs pendant le processus de récolte, une dizaine d’ingénieurs agronomiques ont ainsi conçu en 2017 un objet connecté de forme et de poids identique à celui d’une betterave. Celui-ci permet de suivre le parcours de la plante du champ à l’usine. Il est doté d’un accéléromètre fonctionnant en bluethooth pour détecter les chocs et leur intensité.

IOTA est la meilleure option pour valoriser le big data agricole

La start-up française de l’agtech OKP4, fondée en octobre 2018, s’est fixée pour objectif de rassembler, valoriser et partager les données du monde agricole pour permettre au secteur de gagner en efficience. Sa plateforme Smart Farmers vise ainsi à récolter des informations sur des relevés de température, le suivi de l’utilisation de matériel ou encore des rendements grâce aux capteurs déjà déployés par les agriculteurs. Pour faire face aux problèmes d’interopérabilité entre les différents objets connectés sur le marché et assurer son business-modèle, OKP4 mise sur une technologie clé : IOTA.

Avec ce protocole de communication open-source, qui permet d’effectuer des échanges de données, via des unités de calcul décentralisées, et des transactions d’argent virtuel, la start-up entend en effet valoriser le big data agricole sans avoir besoin de partenariat avec les constructeurs d’objets connectés. “IOTA va nous permettre de décupler les connexions à d’autres systèmes et de passer d’une économie de la data à une économie de la connaissance. Grâce aux utility tokens de la cryptomonnaie associée à IOTA, nous pourrons rétribuer les agriculteurs en fonction des informations qu’ils apportent à l’ensemble de la communauté”, se réjouit Fabrice Francioli, cofondateur d’OKP4. Lorsque les données des agriculteurs sont utilisées par d’autres membres, les contributeurs sont rétribués sous forme de tokens au prorata de l’utilisation de leurs données pour leur permettre à leur tour d’utiliser Smart Farmers. L’accès aux datas sera cependant soumis à un abonnement de base.

Par Mohamed MBAPANDZA, promotion 2018-2019 du M2 IESCI

Bibliographie

Bellavance, François, et François Labrie. « Bienvenue à l’ère du gestionnaire décodeur », Gestion, vol. vol. 42, no. 1, 2017, pp. 38-46.

Bellon-Maurel, Véronique, et Christian Huyghe. « L’innovation technologique dans l’agriculture », Géoéconomie, vol. 80, no. 3, 2016, pp. 159-180.

Bellon-Maurel, Véronique, Jean-Marc Bournigal, et Roland Lenain. « L’équation technologique et numérique en agriculture », Sébastien Abis éd., Le Déméter. IRIS éditions, 2019, pp. 125-141.

Ben Henda, Mokhtar. « Adaptation normative des Big Data et du Learning Analytics », Évelyne Broudoux éd., Big Data – Open Data : Quelles valeurs ? Quels enjeux ? Actes du colloque « Document numérique et société », Rabat, 2015. De Boeck Supérieur, 2015, pp. 197-212.

Bies-Péré, Henri. « Une agriculture plus technologique sera-t-elle une agriculture plus respectueuse ? », Le journal de l’école de Paris du management, vol. 136, no. 2, 2019, pp. 31-37.

Durand, Cédric, et Razmig Keucheyan. « Planifier à l’âge des algorithmes », Actuel Marx, vol. 65, no. 1, 2019, pp. 81-102.

Halpern, Sue. « Au centre du débat : le big data », Books, vol. 86, no. 11, 2017, pp. 17-21.

http://www.mon-cultivar-elevage.com/content/numeriser-le-temps-de-paturage-avec-smart-grazing

https://www.journaldunet.com/ebusiness/internet-mobile/1424591-avec-sa-betterave-connectee-tereos-se-rapproche-des-exploitants/

https://www.lesechos-etudes.fr/etudes/agroalimentaire/intelligence-artificielle-dans-agriculture-defis-opportunites-perspectives/

L’article Le Big Data agricole est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
La digitalisation bancaire https://master-iesc-angers.com/la-digitalisation-bancaire/ Wed, 16 Jan 2019 13:49:18 +0000 https://master-iesc-angers.com/?p=2992 Les activités financières jusqu’alors réservées aux banques sont en train de passer  le cap de la digitalisation, et le marché est en train de se désintermédier à très grande vitesse. Dans ce contexte en pleine mutation les banques vont devoir… Continuer la lecture

L’article La digitalisation bancaire est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
Les activités financières jusqu’alors réservées aux banques sont en train de passer  le cap de la digitalisation, et le marché est en train de se désintermédier à très grande vitesse. Dans ce contexte en pleine mutation les banques vont devoir se réinventer. Le digital a facilité l’apparition de nouveaux acteurs qui sont venus concurrencer les établissements financiers traditionnels. Cette concurrence s’est accélérée avec l’émergence des Fin Tech. Ces start-up spécialisées dans les technologies financières se concentrent généralement sur des offres de produits et services bancaires à faible réglementation et à fortes marges.

Ainsi la question centrale de notre travail est la suivante : Quelles sont les enjeux du digital dans les banques ?

I. Emergence des banques en ligne et changement de comportement de la nouvelle génération

Dans cette partie nous allons essayer de dégager qu’elle est la place qu’occupe différentes banques en ligne sur le marché français, ainsi que la part des Français utilisant les services en ligne pour accéder à leur compte bancaire.

La facilité d’utilisation des applications mobiles bancaires et leur rapidité ont donné un élan positif aux banques en ligne. Il est devenu primordiale à n’importe quelle banque d’avoir un support digital pour répondre aux besoins et aux attentes des client en terme de facilité de transaction bancaire ou bien même de communication entre les deux parties c’est-à-dire entre le client et son conseiller.

Part des internautes et de la population française effectuant des opérations bancaires en ligne de 2006 à 2016.

À travers ce graphique nous remarquons l’utilisation croissante de la population française d’internet pour effectuer différentes opérations bancaires, cela démontre encore une fois l’importance des technologies et de la digitalisation dans le secteur bancaire.

II. L’influence du numérique dans les métiers de la banque

La digitalisation bancaire aura qu’on  le veuille ou non un impact sur les métiers de la banque tels qu’ils sont perçus aujourd’hui. On s’intéressera à l’évolution des trois métiers les plus susceptibles de connaitre une mutation dans la banque.

2-1 Mutations du métier de gestionnaire de back office

Un gestionnaire backoffice est la personne chargée de régler les opérations financières liées aux agences bancaires.

Tout d’abord l’évolution de ce métier passe par la dématérialisation des instruments de paiement. Comme révolution dans ce métier on peut imaginer une véritable dématérialisation du chèque papier qui sera remplacé  par le « chèque image » obtenu par la lecture d’un code barres ce qui fera une économie considérable de papier.

D’autre part on peut songer également à une modification des activités et des compétences liées à ce métier.  En effet on peut penser à une amélioration en matière de compétence du métier de gestionnaire backoffice une sorte de montée en gamme dans laquelle le gestionnaire Back Office sera amené à réaliser des opérations de contrôle, même si cela n’entrainera pas de profonde modification du métier. Dans cette perspective le gestionnaire de Backoffice pourra disposer de plus de temps car moins sollicité, ce qui peut l’amener à développer des interactions avec les clients, tandis que ses anciennes activités seront transférées vers le middle office, l’efficacité de ce métier dépendrait maintenant sur les capacités relationnelles du gestionnaire BackOffice avec les clients. En effet, cette nouvelle configuration augmente fortement le champ d’action des gestionnaires de backoffice qui peuvent intervenir sur des opérations allant du simple contrôle de conformité à des interactions avec le client final.

2-2 Mutation du métier de conseiller clientèle particuliers

Dans une banque le conseiller clientèle est le principal interlocuteur entre la banque et le client. Le conseiller clientèle est à l’écoute du client et le conseille sur les différents produits bancaires afin de répondre au mieux à ses attentes.

L’avènement du numérique continue de bouleverser le métier de conseiller clientèle, cela se voit à travers la baisse de fréquentation des agences et  l’utilisation de plus en plus massive de canaux à distance dans le traitement d’opérations bancaires simples (passer un virement, modifier son plafond de retrait). Aujourd’hui le client est de plus en plus informé parfois même plus que le conseiller client et souhaite avoir la solution adéquate.

Sur l’activité et les compétences du métier le rôle de conseiller client est appelé à évoluer vers plus de relation client et plus de conseil. Dans ce nouveau contexte technologique accru, les banques doivent être à la hauteur et ce quel que soit le canal emprunté. Pour le métier de conseiller clientèle, l’accent doit être mis sur la personnalisation et la pertinence du service apporté au client. Le métier de conseiller client doit désormais être réalisé avec les outils de la nouvelle génération rendue possible grâce à Internet. Il faut rappeler que la banque par nature est une institution de proximité, de relation et de confiance, au vu de ces exigences il apparaît que les conseillers clients ont un rôle stratégique dans l’activité de service proposée par les banques, c’est donc aux conseillers bancaires de s’adapter aux nouvelles habitudes des clients.

D’autre part, il faudrait aussi penser à une spécialisation beaucoup plus spécifique du métier de conseiller clientèle, une spécialisation dans laquelle le conseiller client se doit d’être polyvalent, ou spécialisé dans un canal de distribution voire dans un métier particulier. Le métier de conseiller client de demain, se doit d’avoir accès à minima à autant d’informations que ses clients  et ce dans un court laps de temps, pour cela il faut absolument les codes et outils utilisés par les clients.

2-3 Mutations du métier de directeur d’agence

Le directeur d’agence est un maillon crucial dans le succès de la distribution bancaire d’agence qu’il a sous sa direction. Le directeur d’agence peut endosser plusieurs costumes celui de financier, de commercial, de gestionnaire. Il est en charge du développement de l’activité de son agence dans le secteur géographique dans lequel il se trouve.

Avec le développement du digital et au sens large du numérique le métier de directeur d’agence peut bénéficier d’un pouvoir et d’une autonomie beaucoup plus importante, la digitalisation lui permettra de mieux évaluer les performances de ses collaborateurs via des outils d’indicateur de performance existant sur les tablettes au-delà des indicateurs traditionnels de performances des salariés. Le digital devrait permettre de faciliter l’exercice du métier et en particulier les opérations de contrôle à travers l’automatisation des opérations de ces derniers. Les managers d’agences auront également plus un rôle de pilote de satisfaction client tout en renforçant leurs compétences managériales.

Conclusion

Le digital dans les banques sert comme outil de stratégie afin de se rapprocher des clients à travers les moyens du numérique et d’Internet, il sert aussi à modifier et améliorer les conditions de travail en interne. Les banques qui font le choix du numérique réalisent un grand pari sur l’avenir, tout étant conscient des risques internes que cela peut engendrer. Les entreprises matures dans l’utilisation du numérique, ont une efficacité supérieure aux autres de 20% et sont susceptibles d’augmenter leur rentabilité de 40%. Ce constat est fort intéressant et qui devra encourager les banques à intensifier leurs efforts.

Cependant l’introduction du numérique n’est pas sans conséquences négatives, on peut supposer qu’il aura plusieurs changements dans les métiers de la banque comme on l’a vu, c’est aux banques de tirer le meilleur parti de cette situation si elles veulent retourner la situation à leurs avantages.

Article de Adnane Drici, promotion 2018/2019 du M2 IESCI

Bibliographie

  • « L’évolution du modèle bancaire à l’ère du digital » Fabrice Lamirault.
  • « L’impact du numérique sur les métiers de la banque » Charlotte Béziade & Serge Assayag.

Sites internet

  • https://www.bankobserver-wavestone.com/digitalisation-bancaire-nouveaux-defis-rh/
  • https://www.latribune.fr/entreprises-finance/banques-finance/le-numerique-chamboule-tout-de-l-emploi-dans-les-banques-512869.html
  • https://lnt.ma/secteur-bancaire-digitalisation-processus-irreversible/
  • http://www.dynamique-mag.com/article/banque-face-enjeux-digital.8728
  • https://www.digitall-conseil.fr/avenir-secteur-bancaire-a-lere-digital/
  • https://www.lesechos.fr/idees-debats/cercle/cercle-168485-levolution-du-modele-bancaire-a-lere-du-digital-2077723.php

L’article La digitalisation bancaire est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
La Business intelligence : transformer les données en informations exploitables https://master-iesc-angers.com/la-business-intelligence-transformer-les-donnees-en-informations-exploitables/ Thu, 10 Jan 2019 14:17:44 +0000 https://master-iesc-angers.com/?p=2987 La business intelligence est l’ensemble des techniques et procédures de traitement de l’information à des fins de prises de décisions managériales. Les enjeux des techniques de business intelligence se sont renforcés avec le développement du contexte de big data. La… Continuer la lecture

L’article La Business intelligence : transformer les données en informations exploitables est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>
La business intelligence est l’ensemble des techniques et procédures de traitement de l’information à des fins de prises de décisions managériales. Les enjeux des techniques de business intelligence se sont renforcés avec le développement du contexte de big data.

La business intelligence dans une entreprise a pour objectif principal d’aider les dirigeants d’entreprise, et leurs collaborateurs des services opérationnels à prendre des décisions plus avisées et mieux fondées. Les entreprises ont également recours à la BI pour réduire leurs coûts, identifier de nouvelles opportunités et repérer des processus inefficaces prêts à être réorganisés.

Le graphe suivant nous montre les étapes ainsi que les informations qu’on peut avoir à partir de la BI :

La Business Intelligence (BI) désigne les outils, les technologies, les applications et les pratiques utilisées pour collecter, intégrer, analyser et présenter les données brutes d’une organisation afin de créer des informations commerciales perspicaces et exploitables. La BI en tant que discipline est un processus axé sur la technologie qui comprend plusieurs activités connexes, notamment:

  • Data Mining
  • Processus analytique en ligne
  • Reporting

Pourquoi l’utiliser ?

  • Pour transformer les données en informations exploitables:

    Un système de BI est un outil analytique qui peut vous donner les informations dont vous avez besoin pour réussir vos plans stratégiques pour votre organisation. En effet, un tel système serait en mesure d’identifier les tendances et modèles clés dans les données de votre organisation, ce qui vous faciliterait la tâche pour établir des liens importants entre différents domaines de votre entreprise qui pourraient autrement sembler sans relation. En tant que tel, un système de BI peut vous aider à mieux comprendre les implications de divers processus organisationnels et à améliorer votre capacité à identifier les opportunités appropriées pour votre organisation, vous permettant ainsi de planifier un avenir prospère.

  • Pour améliorer l’efficacité:

    L’une des principales raisons pour lesquelles vous devez investir dans un système de BI efficace est qu’un tel système peut améliorer l’efficacité de votre organisation et, par conséquent, augmenter la productivité. Vous pouvez utiliser la veille stratégique pour partager des informations entre différents départements de votre organisation. Cela vous permettra de gagner du temps sur les processus du reporting et d’analyse. Cette facilité d’échange d’informations réduira probablement la duplication des rôles et des tâches au sein de l’organisation et améliorera la précision et l’utilité des données générées par différents départements. De plus, le partage d’informations permet également de gagner du temps et améliore la productivité.

  • Pour gagner des ventes et une connaissance du marché

    Vous souhaitez probablement garder une trace de vos clients – en utilisant probablement un CRM pour vous aider. CRM est synonyme de gestion de la relation client. Il s’agit d’un logiciel qui gère tous les aspects des interactions d’une organisation avec ses clients. En d’autres termes, il collecte les données relatives à votre client et tente de les comprendre, il vous les présente dans divers tableaux et graphiques. Cela peut inclure tout le cycle de vente, de la conquête de nouveaux clients à la maintenance et au suivi des clients existants, en passant par la fourniture de services après-vente. Les systèmes de gestion de la relation client sont désormais plus impliqués que jamais dans les processus d’aide à la décision.

Les avantages de la business intelligence

  • Accélérer et améliorer la prise de décision.
  • Optimiser les processus internes.
  • Augmenter l’efficacité opérationnelle.
  • Générer de nouveaux revenus.
  • Obtenir des avantages concurrentiels par rapport aux concurrents.
  • Identifier les tendances du marché.
  • Détecter les problèmes commerciaux à résoudre.

Comment les outils et les logiciels optimisent-ils la Business Intelligence?

Les systèmes de logiciel de Business Intelligence fournissent des vues historiques, actuelles et prédictives des opérations commerciales, utilisant le plus souvent des données collectées dans un data warehouse ou un datamart et travaillant occasionnellement à partir de données opérationnelles. Les logiciels prennent en charge les rapports, les analyses de tableaux croisés dynamiques interactifs «Slice and Dice», la visualisation et le datamining des données statistiques. Les applications traitent des données commerciales, de production, financières et de nombreuses autres sources de données d’entreprise en relation avec la gestion des performances de l’entreprise. On recueille souvent des informations sur d’autres entreprises du même secteur, connues sous le nom de benchmarking.

Les outils de Business Intelligence sont essentiellement des systèmes d’aide à la décision (DSS) basés sur les données. La BI est parfois utilisée indifféremment avec des cahiers de briefing, des outils de rapport et de requête et des systèmes d’information de direction. Avec ces outils, les professionnels peuvent commencer à analyser les données eux-mêmes, au lieu d’attendre que le service informatique produise des rapports complexes. Cet accès aux informations aide les utilisateurs à sauvegarder leurs décisions commerciales avec des chiffres précis, plutôt que de simples réflexes et anecdotes.

  • Sisense :

Sisense est une plateforme de business intelligence qui permet aux utilisateurs de joindre, d’analyser et de visualiser les informations dont ils ont besoin pour prendre de meilleures décisions commerciales et plus intelligentes et pour élaborer des plans et des stratégies viables.

Après une analyse approfondie de ses fonctionnalités, plusieurs experts ont conclu que cette solution d’informatique décisionnelle offrait l’un des moyens les plus simples de créer des connaissances et une valeur commerciale à partir de données complexes. Le fournisseur propose également un excellent plan d’essai gratuit qui permet d’essayer d’abord toutes les fonctionnalités clés.
Avec Sisense, les utilisateurs peuvent unifier toutes les données dont ils ont besoin et qu’ils désirent dans des tableaux de bord visuellement attrayants via une interface utilisateur par glisser-déposer. Sisense permet aux utilisateurs de transformer des données en informations de grande valeur, puis de les partager avec des collègues, des partenaires commerciaux et des clients via des tableaux de bord interactifs.

Sisense est le principal logiciel d’informatique décisionnelle de nombreuses entreprises, allant des startups aux entreprises en développement, en passant par les géants du Fortune 500, dont eBay, Sony, ESPN, Comcast et la NASA.

Article de Nohaila Boumazzourh, promotion 2018/2019 du M2 IESCI

Sources

https://www.ibm.com/developerworks/data/library/techarticle/dm-0505cullen/index.html

https://reviews.financesonline.com/p/sisense/

https://www.business.com/articles/get-smart-what-is-business-intelligence-and-why-do-you-need-it/

https://www.quertime.com/article/top-10-reasons-to-use-business-intelligence/

https://www.definitions-marketing.com/definition/business-intelligence/

https://www.journaldunet.com/solutions/expert/67431/pourquoi-opter-pour-la-business-intelligence.shtml

https://www.solution-bi.com/5-raisons-dadopter-une-solution-bi/

https://www.lebigdata.fr/business-intelligence-definition

L’article La Business intelligence : transformer les données en informations exploitables est apparu en premier sur Master Intelligence Economique et Stratégies Compétitives.

]]>