La donnée et sa place dans les cycles de l'information

De Metabolisme territorial
Aller à : navigation, rechercher

Définition d'une donnée

Il n'existe pas de définition consensuelle de ce qu'est exactement une donnée (Thessen & Patterson, 2011). Le dictionnaire Larousse [1] nous en donne six et celle trouvée sur Wikipédia ne colle parfaitement à aucune d'entre elles. Ces différentes définitions permettent toutefois de mettre en avant certaines caractéristiques afin de faire de la donnée un élément plus concret et opérationnel de nos réflexions.

De manière d'abord générale, une première caractéristique d'une donnée est qu'elle est ... donnée ! Dans de nombreux cas, les données mobilisées dans une étude ne sont pas créées mais récupéré auprès d'un organisme extérieur (souvent institutionnel). Une deuxième caractéristique est que les données sont utilisées comme point de départ pour fonder un raisonnement. L'utilisation de données implique ainsi une certaine confiance dans leur fiabilité et donc envers les acteurs qui les ont produites. Cette dépendance entre producteurs et utilisateurs de données posent des questions sociétales que nous verrons brièvement dans la dernière partie de ce chapitre.

De manière plus concrète, une donnée peut être considérée comme une information élémentaire (discrète) sur une partie de la réalité (continue). Cette information est explicite dans le sens où elle peut s'écrire (sur papier, mais plus souvent sur un support informatique) à l'aide de lettres, de chiffres ou occasionnellement de symboles littéraires (#~?%*£$@...). Une donnée peut s'insérer dans un texte comme nous allons le voir plus loin, mais pour faciliter son utilisation par les humains et les systèmes d'information, elle est généralement mise sous une forme conventionnelle avec un type donné : un nombre, une date, une courte de chaîne de caractère ... (Noy & Mcguinness, 2001). Afin de pouvoir appréhender une donnée sous cette forme, elle doit être contextualisée grâce à l'usage de structures et/ou de méta-données, (des données supplémentaires apportant des informations sur les données elles-même). Finalement, une donnée permet soit de caractériser un élément (la population d'un territoire, le prix ou le nom d'un objet, la couleur d'une voiture ...) ou soit de lier des éléments entre eux (les départements des différentes régions, les véhicules d'une entreprise, l'auteur d'un article ...). Nous verrons ainsi que la définition d'un modèle conceptuel de données repose justement sur l'identification des éléments étudiés, de leurs caractéristiques et de leurs liens.

Chaine et cycles de l'information

Les données viennent s'inscrire dans une chaine de l'information. Selon le modèle linéaire de Bedard (1986), adapté par Dao (2005), cette chaine distingue données, informations et connaissances. Elle comporte différentes étapes : (1) la mesure qui produit des données brutes à travers des capteurs, des sondages ou des plans d'expérience (Saporta 2011), (2) le regroupement et la structuration de ces données brutes pour obtenir des données structurées, (3) leur analyse pour en extraire une information synthétique et (4) la communication qui permet de diffuser l'information et d'en faire une connaissance.

Il semble pertinent de fermer cette chaîne et d'en faire un cycle : finalement la connaissance influence l'action sur la réalité (Polanco 2008). Nous proposons également de croiser les cycles car l'information circule finalement très peu en circuit fermé et différents cycles s'alimentent mutuellement (Voir figure ...). Les analyses se basent souvent sur différents jeux de données structurées, la connaissance résulte d'une compilation d'informations diverses et il n'est pas rare que des données servent à des applications et des analyses pour lesquelles elles n'étaient pas initialement destinées (Davis 2012). Nous interprétons cette complexité du cycle de l'information comme une incitation à bien dissocier les étapes du traitement de l'information. Il s'agit de faire en sorte que l'information produite puisse aussi contribuer à construire des connaissances pour d'autres acteurs ayant d'autres objectifs.


Men-at-work-44px.pngTask : Figure cycle information


Dans nos travaux, nous nous focalisons sur les données, et plus spécifiquement sur leur analyse. Nous ne remettrons pas en question la manière dont elles ont été produites et structurées, ni leur qualité. Il s'agit d'un enjeux important des bureaux de statistiques La gestion de la qualité des données dans un bureau de statistique, la mesure ne constitue qu'une approximation de la réalité en raison de son caractère réductionniste et des aléas inévitables. En particulier, l'usage de nomenclatures, indispensable pour classifier l'information, oblige à faire rentrer les données dans des cases prédéfinies, limitant ainsi la possibilité d'une compréhension plus subtile de la réalité (Desrosières 2008). Des erreurs peuvent également survenir. Tout en ayant conscience de ces limites, notre positionnement est avant tout de réfléchir à des méthodes systématiques permettant d'extraire facilement l'information utile de données existantes et relatives à une thématique spécifique (le métabolisme d'un territoire). A la manière Polanco (2008), nous distinguons l’objectif et la forme de l’analyse pour nous concentrer sur la seconde, et nous laissons la question de la qualité des données être examiné spécifiquement pour chaque application.

Nous n'aborderons également que peu la question de la production de connaissances qui résulte du partage d'informations, sous forme écrite ou cognitive, entre plusieurs personnes (Polanco 2008). Cette connaissance permet d'agir in fine sur la réalité, mais mettre en exergue ce processus requiert des analyses plus ancrées dans la psychologie et la sociologie Men-at-work-44px.pngTask : (POPPER, K. Objective Knowledge. Oxford: The Clarendon Press, 1979.)

+ (Polanco  2008). Ces analyses sont ainsi essentielles et complémentaires à nos travaux car la production d'information à partir de données reste une condition nécessaire mais non suffisante pour modifier correctement les dynamiques de nos sociétés (dans notre travaux, il s'agit des dynamiques matérielles et énergétiques qui ont un impact écologique). 

Si l'on veut faciliter la circulation de l'information (ce qui peut aussi poser des problèmes, nous en reparlons plus loin), il faut ainsi agir sur les différentes étapes du cycle. Plusieurs démarches existent pour cela, en particulier celles d'ouverture des données (Open Data), des articles scientifiques (Open Access) ou des logiciels (Open Source). Sans nier que cela pose aussi de nouvelles questions économiques et sociétales complexes[2] dont il faut discuter, nous pensons là qu'il s'agit de démarches à promouvoir.

Autres idées

Chaîne linéaire du modèle hiérarchique des connaissances (Françoise Rossion, 2008)

  • Les travaux mené par Herbelin (CITE !) vont d'ailleurs dans ce sens.
  • Dans un contexte de transition socio-écologique que nous approfondirons dans les chapitres suivants, ces aspects sont mêmes fondamentaux car la réussite du processus de transition dépend directement du comportement des individus (certains étant toutefois bien plus influents que d'autres).
  • (Open access) des publications scientifiques qui contribue à la communication par une plus grande diffusion de l'information scientifique. Cette dynamique est en train de prendre une importance significative dans la communauté scientifique[3], à la fois pour des raisons éthiques (il nous paraît légitime que travaux réalisés sur fonds publics soient rendus publics) et pour des raisons budgétaires

L'analyse et le traitement des données

La phase d'analyse est celle qui requiert le plus de dextérité dans la manipulation concrète des données : elle vise à produire de l'information (sous forme de modèle, de description synthétique de variables, de mise en exergue de phénomène ...) à partir de données structurées. Il n'est pas l'objet de nos travaux d'examiner les spécificités de chacune de ces méthodes, nous cherchons plutôt à identifier les étapes communes du processus d'analyse.

Aussi, à travers la littérature (Bertrand 1986 ; Polanco 2008) et notre expérience, nous identifions sept étapes qu'il nous semble nécessaire de considérer systématiquement dans une phase d'analyse : + Men-at-work-44px.pngTask : Autres références

  1. La définition du problème, du cadre théorique, des hypothèses et du périmètre de l'analyse,
  2. La collecte des données sources pertinentes,
  3. Leur stockage sous une forme structurée,
  4. Leur préparation : nettoyage et formatage,
  5. La sélection de données spécifiques selon les variables analysées et le périmètre défini,
  6. L'analyse des données selon différentes méthodes qui produit des résultats sous forme d'indicateurs, de valeurs clefs, de tableau ou de graphiques.
  7. L'interprétation visant à contextualiser les résultats pour y apporter un regard critique et répondre à la problématique en précisant les apports et les limites.

Afin d'éviter une confusion que les différentes sources de la littérature n'explicitent pas, nous devons distinguer l'"analyse" au sens général du terme qui vise à produire de l'information autour d'une problématique à partir de données sources, de l'"analyse des données" qui est l'une des étapes de ce processus d'analyse, et qui vise à l'application d'une méthode sur des données préparées et produisant des résultats non interprétés, par exemple des coefficients de corrélations, des constructions graphiques ou des valeurs numériques. Une analyse peut ainsi s'appuyer sur l'application d'une ou de plusieurs méthodes d'analyse des données.

Ces différentes étapes de l'analyse, à l'exception de la première et de la dernière, impliquent de manipuler concrètement des données, la plupart du temps avec l'aide d'un outil informatique. Elles constituent ainsi le processus de traitement des données de la phase d'analyse, et c'est sur celui-ci que nous porterons notre attention dans la suite de nos travaux. L'ordre des étapes de ce processus peut varier, certaines étapes pouvant être confondues ou superflues. Nous approfondissons chacune d'elles afin d'identifier les différents éléments sur lesquels il est possible d'agir pour faciliter de manière générale le traitement des données. Dans le chapitre III, nous reprenons ce processus mais cette fois en identifiant les éléments spécifiques à notre thème d'étude (le métabolisme territorial).

Identification et obtention des données sources : Notion d'utilisabilité

Le premier temps du processus de traitement des données consiste à identifier et rassembler les données pertinentes pour répondre aux objectifs visés. Loin d'être triviale, cette étape nécessite d'explorer l'univers des données disponibles et de sélectionner les plus adaptées, selon différents critères plus ou moins conscientisés (Bellino 2013). Dans leurs travaux, Zuiderwijk et al. (2012) dressent un long panorama des difficultés qui peuvent survenir dans l'utilisation de données. Nos recherches ont en effet été confrontées à certain nombre des problèmes mentionnés : l'absence de métadonnées, la difficulté à utiliser certains moteurs de recherche, la fragmentation des données, la diversité des formats de fichiers dont certains non adaptés à la lecture par une machine, la structure, l'encodage ou le typage des données défaillant ou non conventionnel, le coût, les restrictions d'accès, l'absence d'indexation (URL) des pages de données, ...

Pour mieux appréhender ces problèmes, Bellino (2013) présente ainsi la notion d'utilisabilité basée sur la facilité à trouver les données (ou repérabilité) et leur qualité (c'est-à-dire leur fiabilité, validité, exhaustivité, intelligibilité, concision, pertinence, richesse et cohérence). En tenant compte des réflexions de Berners-Lee (2006), il nous semble également nécessaire d'inclure dans cette notion les questions d'accessibilité (physique, technique, droits d'utilisation) et d'exploitabilité des données par différents programmes. Nous reprenons ainsi les composantes de l'utilisabilité des données dans le tableau X.

Critère d'utilisabilité Description Pratiques associées
Repérabilité Facilité à trouver les données Mise en ligne, sur des plateformes dédiées disposant de bons moteurs de recherches ; Présence de mots-clefs, d'une description (métadonnées), de liens vers d'autres données, d'un URL/URI/DOI... pour un accès direct.
Qualité Fiabilité, validité, exhaustivité, intelligibilité, concision, pertinence, richesse et cohérence. Tests statistiques ; Méthodologie de création des données explicite.
Accessibilité Accessibilité physique (support papier < réseau local < web), accessibilité technique (requête vs. téléchargement), droits d'accès, droits de diffusion. Mise en ligne ; Usage des standards de l'Open Data (outils et licences) ; Absence d'identification ou de droit d'accès pour accéder aux données ; Gratuité ; Accès aux données par téléchargement de fichier ET par requête via une interface de programmation - API.
Exploitabilité Exploitabilité des données par différents programmes, dépend ainsi des formats et des structures utilisés. Proposer différents formats de données (dont des non propriétaires et/ou lisibles par des machines).

Cette question de l'utilisabilité mérite un examen plus systématique si l'on veut pouvoir mieux valoriser des jeux de données. Plusieurs initiatives scientifiques, politiques et économiques se penchent d'ailleurs sur ces questions (Thessen & Patterson, 2011).

Citons par exemple les plateformes "open data" qui rassemblent des données publiques au niveau national[4], comme à des niveaux plus locaux[5].

A l'issue de cette phase d'identification et de collecte, nous disposons des données structurées qui sont censés apporter les éléments de réponse visé par l'analyse. En attendant d'être préparées, ces données peuvent être soit stockées (dupliquées) localement, soit dans la mémoire vive d'un programme.

Autres éléments


Préparation des données : restructuration, nettoyage, formatage et jointures

La phase de préparation des données vise à s'assurer que les données collectées soient fiables et opérationnelles. Les utilisateurs doivent ainsi pouvoir les exploiter directement à travers une méthode d'analyse de données. Pour cela, différentes opérations sont à mener :

  • La restructuration qui concerne les données mal structurées, comme des commentaires intégrés entre les lignes de données d'un tableur ou du texte au milieu de nombres qui doit être supprimé. L'utilisation d'un type de fichier non structuré (fichier PDF ou Word ne permettant pas l'exploitation automatisée des données) peut également obliger à structurer manuellement des données. + PERMET DE STOCKER LES DONNEES
  • Le nettoyage qui vise à détecter et à corriger les erreurs et les inconsistances dans les données (Rahm & Do, 2000). Le nettoyage n'est pas toujours trivial. D'une part, les erreurs, notamment si elles concernent la qualité intrinsèque des données, peuvent ne pas être détectables pour l'utilisateur (https://www.cairn.info/revue-responsabilite-et-environnement1-2012-3-page-22.htm), même si une partie peut l'être comme des adresses postales erronées, des dates aberrantes, des codes incorrects, des données redondantes ... D'autres part, la correction de l'erreur n'est pas toujours possible ou facile. Cela exige souvent un travail manuel, ou l'exclusion de la donnée erronée, ce qui n'est pas neutre en terme de démarche scientifique
  • La standardisation (ou normalisation) qui vise à s'assurer de l'opérabilité des données (http://dimacs-algorithmic-mdm.wdfiles.com/local--files/start/Methodologies%20for%20Data%20Quality%20Assessment%20and%20Improvement.pdf). Il peut s'agir du choix du séparateur décimal (point ou virgule), de l'encodage des caractères spéciaux et accentués, usage des majuscules, le format des dates, le texte numérique considéré comme tel[6], ...), ainsi que de l'usage des mêmes conventions entre les différentes données (codes, noms, nomenclatures, unités, pas de temps ...). http://www.ohmybox.info/qualite-des-donnees-standardiser-pourquoi-et-comment/
  • La jointure qui vise à rassembler différents jeux de données pour n'en faire qu'un seul, généralement à l'aide d'une clef de jointure, c'est-à-dire un code d'identification partagé entre les différents jeux de données.
  • La sélection qui vise à ne retenir que les données destinées à l'analyse de données : elles figurent à l'intérieur du périmètre (objet d'étude, limites, période, ...) et ne concernent qu'un nombre restreint de variables (caractères). Les fonctions de filtrage des tableurs ou les requêtes sur bases de données permettent d'opérer assez simplement cette sélection.

Ces opérations sont plus ou moins lourdes à mettre en place selon les données collectées et les objectifs de l'analyse. Dans certains cas, il n'y a rien à faire car les données récupérées sont directement exploitables, dans d'autres, plusieurs de ces opérations doivent être menées, souvent manuellement car spécifique à chaque jeu de données (Thomsen & Bach 2009). L'automatisation de certaines procédures est parfois possible, mais cela nécessite quand même du temps pour implémenter les algorithmes dédiés, qui reposent souvent sur des fonctions de bas niveau. Malgré tout, le bon déroulement de l'opération de préparation des données est crucial pour leur exploitation, il s'agit notamment d'éviter de faire appel à des données erronées dans une prise de décision (Rahm & Do, 2000) (https://www.cairn.info/revue-responsabilite-et-environnement1-2012-3-page-22.htm).

Analyse de données

A distinguer de la phase d'analyse au sens général du terme, nous cantonnons le terme d'analyse de données à la seule application d'une méthode mathématique ou algorithmique sur des données préparées afin d'en extraire une information synthétique, éventuellement visuelle. Ces données décrivent souvent une grande quantité d'éléments et un grand nombre de leur caractères (Bouroche & Saporta, 2006). L'extraction d'information peut consister à identifier des corrélations (ou non) entre différents caractères étudiés, à classifier des individus selon leur similarité, à identifier des liens, à vérifier des modèles, à décrire les données de manière résumée ... Parmi les méthodes plus courantes d'analyse de données, on peut citer (Bertrand 1986 ; Bouroche & Saporta, 2006) : la régression, les analyses statistiques et tests d'hypothèses, l'analyse en composantes principales, l'analyse canonique, l'analyse factorielle des correspondances, les méthodes de classification et de discrimination, l'expression visuelle ou géométrique ...

Il existe différentes typologies d'analyses. Il y a par exemple les analyses spatiales qui visent à étudier des éléments par leur localisation, ou des analyses temporelles qui visent à étudier leur évolution. De manière générale, nous pouvons parler d'axe d'analyse ou de dimension (http://www.lirmm.fr/~poncelet/publications/papers/eda2010.pdf) pour désigner la nature du caractère étudié ; les analyses multidimensionnelles impliquent ainsi l'étude simultanée de différents caractères, et donc de leur relation.

Les résultats produits par les méthodes d'analyse de données peuvent prendre plusieurs formes :

  • des valeurs clefs ou des indicateurs,
  • des modèles permettant de décrire les données,
  • des données structurées : un tableau, un arbre de classification, ...
  • des représentations graphiques

Dans nos travaux, nous portons une attention particulière sur les questions de représentations graphiques et de visualisation de données. Notre objectif est de permettre à un public large d'appréhender les enjeux matériels et énergétique de nos sociétés. Nous pensons que l'expression visuelle permet de transmettre efficacement de l'information à une grande variété d'acteurs. Toutefois, un usage mal pensé des techniques graphiques peut amener à déformer l'information, comme l'illustre {Ref needed}:CarteAngletterrElection à travers une cartographie de résultats électoraux dont l'interprétation est faussée car il existe un découplage entre les surfaces des circonscription et leur poids électoral. Ainsi, à l'instar de {Ref needed}:DataVisualisation, nous pensons que la construction de représentation graphiques mérite une véritable attention. Si des nuages de points ou des histogrammes sont relativement simples à construire, d'autres représentations peuvent être complexes, mais transmettre une information plus subtile et de manière plus efficace.

Stockage des données

Le stockage des données intervient tout au long du processus d'analyse : à l'issue de la phase de collecte, à nouveau après préparation, parfois après sélection, et également pour enregistrer les résultats après la phase de manipulation. Il permet de figer de manière pérenne les données, pour pouvoir les réutiliser ultérieurement. Il est envisageable de manipuler les données en flux tendu dans la mémoire vive, sans stockage sur un disque dur, mais cela implique de devoir reproduire l'ensemble du processus de traitement de données à chaque fois, ce qui peut s'avérer assez long et inadapté (en particulier pour les traitements manuels). De plus, un grand nombre de données sources ne sont structurées que sous la forme d'un fichier qui sera nécessairement stocké (dupliqué) en dur sur un ordinateur ou sur un serveur (local ou web) pour être exploité.

Il existe deux grands paradigmes pour le stockage des données[7] : les fichiers et les bases de données. Les premiers sont associés à des hiérarchies et des programmes permettant de manipuler les données à travers une interface utilisateur. Les secondes sont associées à des interfaces de programmation permettant de formuler des requêtes pour ajouter, modifier ou sélectionner les données. Le choix du paradigme dépend de la complexité des données à manipuler. Pour les études simples ou exploratoires, l'usage d'un fichier tableur est souvent privilégié. Il permet d'organiser facilement des données, et les programmes d'exploitation (comme LibreOffice Calc ou Microsoft Office Excel) permettent de réaliser de nombreuses opérations courantes (calcul, graphiques, ...). Toutefois, à partir d'un certain niveau de complexité dans les données, le format en deux dimensions d'un tableur présente des limites. Il faut donc envisager d'autres types de structures de données (nous le faisons partie suivante), la plupart pouvant être également stockées avec d'autres formats de fichier, mais certaines comme le modèle entité/association, peuvent être exploitées plus facilement à travers l'implémentation d'une base de données.



Références

• Bedard, Y., 1986, A Study of the Nature of Data Using a Communication-Based Conceptual Framework of Land Information, The Canadian Surveyor, 40, pp. 449-460. [En ligne] URL : https://www.researchgate.net/profile/Yvan_Bedard/publication/255591392_A_study_of_data_using_a_communication_based_conceptual_framework_of_land_information_systems/links/00b4952d811ddbdd9f000000.pdf. Consulté le 19 avril 2018.
• Bellino, C., 2013, Contribution de l’architecture de l’information à l’utilisabilité informationnelle: le cas des intranets, Etudes de communication. langages, information, médiations, pp. 71-88. Groupe d’Etudes et de Recherche Interdisciplinaire en Information et Communication de l’Université Lille 3
• Berners-Lee, T., 2006, Linked Data (mis à jour en 2010). [En ligne] URL : https://www.w3.org/DesignIssues/LinkedData.html. Consulté le 19 avril 2018.
• Bertrand, R., 1986, Pratique de l'analyse statistique des données. Presses de l'Université du Québec, 380 p.. [En ligne] URL : https://books.google.fr/books?id=AoW-E3dX4lUC. Consulté le 19 avril 2018.
• Bouroche, J., Saporta, G., 2006, L'analyse des données. Presses Universitaires de France, « Que sais-je ? »,, 128 p.. [En ligne] URL : https://www.cairn.info/l-analyse-des-donnees--9782130554448.htm. Consulté le 19 avril 2018.
• Dao, Q., 2005, Le rôle des systèmes d'information géographique pour le développement urbain durable, Enjeux du développement urbain durable, pp. 123-156. Presses Polytechniques Universitaires Romandes. [En ligne] URL : https://archive-ouverte.unige.ch/unige:74870. Consulté le 19 avril 2018.
• Davis, C., 2012, Making Sense of Open Data: From Raw Data to Actionable Insight.. [En ligne] URL : https://repository.tudelft.nl/islandora/object/uuid:88c3c6f9-d6a2-4a82-9353-884a3b77b6ed. Consulté le 19 avril 2018.
• Desrosières, A., 2008, L’Argument statistique I : Pour une sociologie historique de la quantification. Presses des MINES
• Noy, N., Mcguinness, D., 2001, Ontology Development 101: A Guide to Creating Your First Ontology. [En ligne] URL : http://www-ksl.stanford.edu/people/dlm/papers/ontology-tutorial-noy-mcguinness.pdf. Consulté le 19 avril 2018.
• Polanco, X., 2008, Transformer l’information en connaissance avec stanalyst. Cadre conceptuel et modèle, Encontros Bibli: revista eletrônica de biblioteconomia e ciência da informação, 13, pp. 76-91. DOI : 10.5007/1518-2924.2008v13nesp1p76
• Rahm, E., Do, H., 2000, Data cleaning: Problems and current approaches, IEEE Data Engineering Bulletin, 23, pp. 3-13
• Saporta, G., 2011, Probabilités, analyse des données et statistique. Éd. Technip, Paris, 656 p.
• Thessen, A., Patterson, D., 2011, Data issues in the life sciences, ZooKeys, 150, pp. 15-51. DOI : 10.3897/zookeys.150.1766
• Thomsen, C., Bach Pedersen, T., 2009, Pygrametl: A Powerful Programming Framework for Extract-transform-load Programmers, DOLAP '09, pp. 49-56. ACM. DOI : 10.1145/1651291.1651301
• Zuiderwijk, A., Janssen, M., Choenni, S., Meijer, R., Alibaks, R., 2012, Socio-technical Impediments of Open Data, Electronic Journal of e-Government, 10. [En ligne] URL : http://www.ejeg.com/issue/download.html?idArticle=255. Consulté le 19 avril 2018.


Notes de bas de page

  1. http://www.larousse.fr/dictionnaires/francais/donn%C3%A9e/26436?q=donn%C3%A9e
  2. En témoigne les conflits opposants les éditeurs scientifiques et les organismes de recherches comme le CNRS qui doivent effectuer des arbitrages pour leur abonnement, voir : http://www.cnrs.fr/inshs/recherche/springer.htm
  3. Voir notamment https://openaccess.couperin.org/
  4. https://www.data.gouv.fr/
  5. Par exemple à Nantes (https://data.nantesmetropole.fr/pages/home/), à Strasbourg (https://data.strasbourg.eu) ou dans le Grand-Est avec un Géoportail (https://www.geograndest.fr)
  6. Problème classique rencontré lorsqu'on écrit un numéro de téléphone inscrit dans un tableur : 0636353433 -> 636353433, mais c'est aussi le cas des codes de département INSEE sur deux chiffres, y compris pour les départements 01 à 09.
  7. Nous excluons les données non numériques
CiteRefCallRef needed +
KeyRefthessen2011 +, noy2001 +, bedard1986 +, dao2005 +, saporta2011 +, polanco2008 +, davis2012 +, desrosieres2008a +, bertrand1986 +, bellino2013 +, zuiderwijk2012 +, bernerslee2006 +, rahm2000 +, thomsen2009 + et bouroche2006 +
PageLabelLa donnée et sa place dans les cycles de l'information +
TaskFigure cycle information +, (POPPER, K. Objective Knowledge. Oxford: The Clarendon Press, 1979.) + et Autres références +