En quoi une entreprise y trouve un intérêt à vouloir avoir une traçabilité sur chaque produit, un étiquetage pour pouvoir suivre sa traçabilité ? Est-ce seulement « pour suivre simplement l’acheminement pour se faire de l’argent et ne pas perdre de profit » ?

Il ne faut pas confondre modernité et évolution technologique – ce sont deux mots différents qui ne veulent pas dire la même chose mais qui, finissent souvent par être en connotation avec de la servitude moderne. Quand une entreprise donne des moyens, elle cherche surtout a se faire de l’argent et pouvoir ( par simple praticité ? ) avoir une meilleur contrôle sur ses ventes.

Ma question est simple : Cette puce RFID rendra t-elle seulement les produits traçable ou tous le monde entier ( les animaux, la faune, la flore, les êtres humains ) aura aussi besoin d’être tracé afin d’être mieux contrôlé et prêt à suivre ce qu’on appel L’ÉVOLUTION ?

C’est à vous de juger en lisant la définition que je vous apporte ci-dessous. Notez bien : En 2015 tous les animaux sont déjà pucé et doté d’une puce RFID.

L’exploration de données, connue aussi sous l’expression de fouille de données, forage de données, prospection de données, data mining, ou encore extraction de connaissances à partir de données, « ECD » en français, « KDD » en anglais, a pour objet l’extraction d’un savoir ou d’une connaissance à partir de grandes quantités de données, par des méthodes automatiques ou semi-automatiques.

L’utilisation industrielle ou opérationnelle de ce savoir dans le monde professionnel permet de résoudre des problèmes très divers, allant de la gestion de la relation client à la maintenance préventive, en passant par la détection de fraudes ou encore l’optimisation de sites web.

Et si votre gouvernement décidait de vous implanter une puce RFID que feriez-vous ?

C’est aussi le mode de travail du data journalisme L’« fait suite, dans l’escalade de l’exploitation des données de l’entreprise, à l’informatique décisionnelle. Celle-ci permet de constater un fait, tel que le chiffre d’affaires, et de l’expliquer comme le chiffre d’affaires décliné par produits, tandis que l’exploration de données permet de classer les faits et de les prévoir dans une certaine mesure ou encore de les éclairer en révélant par exemple les variables ou paramètres qui pourraient faire comprendre pourquoi le chiffre d’affaires de tel point de vente est supérieur à celui de tel autre.

Collecter les données, les analyser et les présenter au client.

La génération de modèles à partir d’un grand nombre de données n’est pas un phénomène récent. Pour qu’il y ait création de modèle il faut qu’il y ait collecte de données. En Chine on prête à l’Empereur Tang Yao, la volonté de recenser les récoltes en 2238 av. J.-C. ; en Égypte le pharaon Amasis organise le recensement de sa population au cinquième siècle av. J.-C.. Ce n’est qu’au XVIIe siècle qu’on commence à vouloir analyser les données pour en rechercher des caractéristiques communes.

En 1662, John Graunt publie son livre « Natural and Political Observations Made upon the Bills of Mortality » dans lequel il analyse la mortalité à Londres et essaie de prévoir les apparitions de la peste bubonique. En 1763, Thomas Bayes montre qu’on peut déterminer, non seulement des probabilités à partir des observations issues d’une expérience, mais aussi les paramètres relatifs à ces probabilités.

Présenté dans le cas particulier d’une loi binomiale, ce résultat est étendu indépendamment par Laplace, conduisant à une formulation générale du théorème de Bayes. Legendre publie en 1805 un essai sur la méthode des moindres carrés qui permet de comparer un ensemble de données à un modèle mathématique. Les calculs manuels coûteux ne permettent cependant pas d’utiliser ces méthodes hors d’un petit nombre de cas simples et éclairants. De 1919 à 1925, Ronald Fisher met au point l’analyse de la variance comme outil pour son projet d’inférence statistique médicale.

Les années 1950 voient l’apparition de calculateurs encore onéreux et des techniques de calcul par lots sur ces machines. Simultanément, des méthodes et des techniques voient le jour telles que la segmentation, classification (entre autres par la méthode des nuées dynamiques), une première version des futurs réseaux de neurones qui se nomme le Perceptron, et quelques algorithmes auto-évolutifs qui se nommeront plus tard génétiques. Dans les années 1960 arrivent les arbres de décision et la méthode des centres mobiles; ces techniques permettent aux chercheurs d’exploiter et de découvrir des modèles de plus en plus précis.

En France, Jean-Paul Benzécri développe l’analyse des correspondances en 1962. On reste cependant dans une optique de traitement par lots. En 1969 paraît l’ouvrage de Myron Tribus Rational descriptions, decisions and designs qui généralise les méthodes bayésiennes dans le cadre du calcul automatique (professeur à Dartmouth, il utilise assez logiquement le langage BASIC, qui y a été créé quelques années plus tôt, et son interactivité).

La traduction en français devient disponible en 1973 sous le nom Décisions rationnelles dans l’incertain. Une idée importante de l’ouvrage est la mention du théorème de Cox-Jaynes démontrant que toute acquisition d’un modèle soit se fait selon les règles de Bayes (à un homomorphisme près), soit conduit à des incohérences.

Une autre est que parmi toutes les distributions de probabilité satisfaisant aux observations (leur nombre est infini), il faut choisir celle qui contient le moins d’arbitraire (donc le moins d’information ajoutée, et en conséquence celle d’entropie maximale (MAXENT (en))). La probabilité s’y voit considérée comme simple traduction numérique d’un état de connaissance, sans connotation fréquentiste sous-jacente.

Enfin, cet ouvrage popularise la notation des probabilités en décibels, qui rend la règle de Bayes additive et permet de quantifier de façon unique l’apport d’une observation en la rendant désormais indépendante des diverses estimations a priori préalables (voir Inférence bayésienne).

L’arrivée progressive des micro-ordinateurs permet de généraliser facilement ces méthodes bayésiennes sans grever les coûts. Cela stimule la recherche et les analyses bayésiennes se généralisent, d’autant que Tribus a démontré leur convergence, au fur et à mesure des observations, vers les résultats des statistiques classique tout en permettant d’affiner les connaissances au fil de l’eau sans nécessiter les mêmes délais d’acquisition (voir aussi Plan d’expérience).

L’affranchissement du protocole statistique classique commence alors : il n’est plus nécessaire de se fixer une hypothèse et de la vérifier ou non a posteriori. Au contraire, les estimations bayésiennes vont construire elles-mêmes ces hypothèses au fur et à mesure que s’accumulent les observations.

L’expression «  data mining » avait une connotation péjorative au début des années 1960, exprimant le mépris des statisticiens pour les démarches de recherche de corrélation sans hypothèses de départ. Elle tombe dans l’oubli, puis Rakesh Agrawal l’emploie à nouveau dans les années 80 lorsqu’il entamait ses recherches sur des bases de données d’un volume de 1 Mo. Le concept d’exploration de données fait son apparition, d’après Pal et Jain, aux conférences de l’IJCAI en 1989.

Gregory Piatetsky-Shapiro chercha un nom pour ce nouveau concept dans la fin des années 80, aux GTE Laboratories. «  Data mining » étant sous la protection d’un copyright, il employa l’expression «  Knowledge discovery in data bases  » (KDD). Puis, dans les années 1990, viennent les techniques d’apprentissage automatique telles que les SVM en 1998, qui complètent les outils de l’analyste.

Au début du XXIe siècle, une entreprise comme Amazon.com se sert de tous ces outils pour proposer à ses clients des produits susceptibles de les intéresser.

Applications industrielles : Par objectifs :

Un exemple de ce qu’on peut faire avec le logiciel R : ici un corrélogramme

De nos jours, les techniques d’exploration de données peuvent être utilisées dans des domaines complètement différents avec des objectifs bien spécifiques.

Les sociétés de vente par correspondance analysent, avec cette technique, le comportement des consommateurs pour dégager des similarités de comportement, accorder des cartes de fidélité, ou établir des listes de produits à proposer en vente additionnelle (vente croisée). Un publipostage (mailing) servant à la prospection de nouveaux clients possède un taux de réponses de 10 % en moyenne. Les entreprises de marketing utilisent la fouille de données pour réduire le coût d’acquisition d’un nouveau client en classant les prospects selon des critères leur permettant d’augmenter les taux de réponses aux questionnaires envoyés.

Ces mêmes entreprises, mais d’autres aussi comme les banques, les opérateurs de téléphonie mobile ou les assureurs, cherchent grâce à l’exploration de données à minimiser l’attrition (ou churn) de leurs clients puisque le coût de conservation d’un client est moins important que celui de l’acquisition d’un nouveau.

Les services de polices de tous les payscherchent à caractériser les crimes (répondre à la question : « Qu’est-ce qu’un crime « normal » ? ») et les comportements des criminels (répondre à la question :

« qu’est-ce qu’un comportement criminel « normal » ? ») afin de prévenir le crime, limiter les risques et les dangers pour la population.

Le scoring des clients dans les banques est maintenant très connu, il permet de repérer les « bons » clients, sans facteur de risque (Évaluation des risques-clients) à qui les organismes financiers, banques, assurances, etc., peuvent proposer une tarification adaptée et des produits attractifs, tout en limitant le risque de non-remboursement ou de non-paiement ou encore de sinistre dans le cas des assurances.

Les centres d’appel utilisent cette technique pour améliorer la qualité du serviceet permettre une réponse adaptée de l’opérateur pour la satisfaction du client. Dans la recherche du génome humain,les techniques d’exploration de données ont été utilisées pour découvrir les gènes et leur fonction.

D’autres exemples dans d’autres domaines pourraient être trouvés, mais ce qu’on peut remarquer dès à présent, c’est que toutes ces utilisations permettent de caractériser un phénomène complexe (comportement humain, expression d’un gène), pour mieux le comprendre, afin de réduire les coûts de recherche ou d’exploitation liés à ce phénomène, ou bien afin d’améliorer la qualité des processus liés à ce phénomène.

Quand les hommes cesseront de se mentir , ils cesseront de mentir aux autres. Ce sera le commencement de la véritable humanité.C’est ce que je défends.

Partagez les articles sur vos réseaux sociaux en cliquant sur le bouton ci-dessous.

Paix et sincérité à tous !

Eveil-delaconscience

Pin It on Pinterest

Shares
Share This
%d blogueurs aiment cette page :