Notes de laboNotesNotes de lecture

Notes de lecture : Cavoukian, Ann. A Primer on Metadata: Separating Fact from Fiction

À propos de : Cavoukian, Ann. A Primer on Metadata: Separating Fact from Fiction (Information and Privacy Commissioner of Ontario, Canada, 1973).

Couverture de: Cavoukian, Ann. A Primer on Metadata: Separating Fact from Fiction (Information and Privacy Commissioner of Ontario, Canada, 1973)

Ces Notes de lectures citent et commentent le texte dans sa langue originelle, ici l’anglais.

Tweets from Privacy by Design (@embedprivacy) signaled the publication of A Primer on Metadata: Separating Fact from Fiction (18 pages PDF document). As I am currently working on a related subject, I read it at once… and was disappointed. The actual primer on what is metadata is only two pages long, rather minimal, inaccurate and not quite convincing.

Metadata (formal definition):

« Metadata is (…) essentially information about other information, in this case, relating to our communications. »

In this case : « Metadata is information generated by our communications devices and our communications service providers, as we use technologies like landline telephones, mobile phones, desktop computers, laptops, tablets or other computing devices. »

Cavoukian, 2013, p. 3

Metadata (descriptive definition) : « Metadata includes information that reveals the time and duration of a communication, the particular devices, addresses, or numbers contacted, which kinds of communications services we use, and at what geolocations. And since virtually every device we use has a unique identifying number, our communications and Internet activities may be linked and traced with relative ease – ultimately back to the individuals involved. »

Cavoukian, 2013, p. 3

 

As presented in the document, these two definitions are at odds with one another: the formal one referring to information items about other information items; but not the descriptive definition which is rather referring to information about processes. But computer specialists do recognize many kinds of metadata, even though they might use different typologies.

The few lines entitled « A Day in the Life… » (pp. 3-4) provide a good illustration of how (processes) « metadata created by the devices that two individuals use to communicate with each other can reveal a great deal » about them.

Finally, the section « Metadata May Be More Revealing Than Content » (pp. 4-5) reads more like a series of arguments from authority than as an actual demonstration.

Need for evidenced arguments

Coincidently, answering engineering students in a lecture made at Polytechnique Montréal last week, I had to remind that an information set would be metadata, not by some intrinsic nature, but merely by the context of its initial production and use. Classically, the term data referred to information items that are available (or to be produced) for the solution of a problem or the completion of a reasoning, an inquiry or a research. As soon as one so uses « metadata » (what ever the type), they become « data ». Thus, no longer are « metadata ».

From the very first universal purpose computing machine, computers – and digital devices since – require metadata to work. And they also produce other metadata as by-products of their processes. And from the dawn of informatics, those metadata were at once reused as data.

There is nothing new with using metadata to produce knowledge about people. A classic example is the introduction of the computerized cash registers. As the machine processes the customers’ purchases, it produces clock metadata than can be used to asses the clerks’ speeds to punch (now scan) items, to take payments and give change, to pack the goods and pass to the next customers.

Anytime an operation is linkable to a human user, the operations’ metadata can be exploited as data about this human user (and anyone related to that person). Videogames provides good examples of how the same outputs can simultaneously be processes’ metadata and players’ data.

These relative artificiality and mutability of the distinction between data and metadata become obvious when one considers (as these tweet structure maps show) that making a tweet of a maximum of 140 characters can easily require the production of between 500 and 1000 characters of metadata which include… the tweet message itself !

And indeed, the « metadata »/ »data » relative weights in todays’ particular instances can often be startling… if one can still distinguish between the two.

Also, need to make evidences evident

How come that there is no readily available button on which I could click to see the whole tweet actually produced, not only the message I wrote and sent?

Or how come that there is no readily available command to display what information my mobile phone service actually produces minute by minute?

And as I pointed out to Polytechnique’s engineering students: if NSA’s work is essentially done with computerized devices, how come Congress does not have a dashboard that harness the metadata about what kinds of operations NSA actually does? If such metadata would have been available, could Director James Clapper, been able to lie so easily about NSA’s operations before Congress? And Congress only discovering it through documents leaked by a whistleblower? After all, would it not be only metadata about systems’ uses, not data from the individual intelligence operations themselves? ;-)

Such are questions of critical and practical political significance. Because they breed other questions about who decides the production of such information. About its uses. About who control them. About their consequences. And so on. Of critical and practical significance also because they could turn a defensive stance into one of political affirmation. Such questions stem from an understanding of the nature of what information and information processing are. This is why it is so important to deepen and strengthen such understanding as well as to popularize it and make it useable by all citizens.

So if you know any instructive work on the subject…

DébatsRemarques de terrainInformation & DroitNotes de laboVivre entre les lignesNotesObservations

Projet de loi « accès légal » : les journalistes découvrant être dans la mire

Débats - DebatesUn soudain bras de fer entre le gouvernement Charest et les journalistes cause une onde de choc dont les échos se sont répercutés à travers la profession journalistique canadienne. Un choc qui pourrait faire réaliser à quel point le projet de loi « accès légal » déposé ce lundi 13 février concerne aussi les journalistes et les entreprises de presse.

Une menace

La semaine dernière, le gouvernement Charest a annoncé que le Directeur des poursuites criminelles et pénales et la Sureté du Québec allaient mener sur les fuites vers les médias touchant l’affaire Ian Davidson, un policier de Montréal à la retraite soupçonné d’avoir tenté de vendre au crime organisé des listes d’informateurs de la police. Ni le ministre de la Sécurité publique Robert Dutil, ni le premier ministre Jean Charest n’ont accepté de garantir que les journalistes ne seraient pas objet d’enquête ou d’écoute électronique. (suite…)

DébatsInformation & DroitVivre entre les lignesNotesObservations

Gagner contre les projets de loi « accès légal » : Deux intuitions stratégiques

Débats - DebatesY a-t-il des actions qu’on puisse mettre en marche dès aujourd’hui dans une campagne décisive contre l’adoption des projets de lois dites « accès légal » par le Canada? J’en suis venu à répondre « oui » en écoutant un exposé d’Antoine Beaupré, administrateur système chez Koumbit. C’était lors d’une rencontre publique intitulée « “accès illégal” et lois liberticides sur internet », le 3 février 2012 à Montréal.

Rappelons que les projets de loi « accès légal » (après déjà trois tentatives d’adoption interrompues par la dissolution du Parlement) n’ont pas encore été déposés à nouveau. Cependant, on s’attend à ce que le gouvernement Harper le fasse tôt ou tard. Les dernières versions des projets de loi donnaient aux services de police de nouveaux pouvoirs pour accéder aux données détenues par les fournisseurs de services Internet. Elles permettaient la divulgation obligatoire des renseignements sur leurs clients sans supervision judiciaire ainsi que la surveillance en temps réel à travers les réseaux fournisseurs de services Internet. Autant de mesures jugées inutiles et dangereuses, non seulement par les défenseurs des libertés civiles, mais par bon nombre de corps policiers également. Une analyse légale détaillée (en anglais)en a été publiée récemment par la British Columbia Civil Liberties Association.

La rencontre était organisée par Koumbit une entreprise techno autogérée qui offre notamment des services d’hébergement web. L’entreprise a donc déjà connu sa part de perquisitions d’informations et de serveurs. Comme plusieurs autres entreprises du secteur, Koumbit craint les effets de l’initiative « accès légal » pour les libertés civiles de ses clients ainsi que, globalement, pour l’ensemble des citoyens qui utilisent internet à partir de partout dans le monde. L’exposé d’ouverture d’Antoine Beaupré traitait d’ailleurs moins des aspects légaux des projets de loi que de ses dimensions techniques et politiques. (suite…)

CommunicationsDébatsInformation & DroitNotes de laboVivre entre les lignesNotesRéflexions

Autonomie, surveillance et démocratie : Quelques repères pour le XXIe siècle

Texte tiré de ma présentation au

Forum citoyen sur la surveillance des communications

organisé par le caucus québécois du Nouveau Parti Démocratique

Montréal, Maison Notman, le jeudi, 3 novembre 2011

Indépendamment du sort qu’aura le projet de loi appelé « Accès légal », la société de l’information continuera de se développer. Or, une société de l’information est,

nécessairement, une société de surveillance. D’où la question : quels rôles les parlements, gouvernements et sociétés civiles doivent-ils jouer pour, non pas seulement préserver les libertés et la démocratie, mais bien les renforcer?

Je propose – à gros traits en rafale vu le court temps alloué – quelques repères pour des défis auxquels le XXIe siècle nous soumet.

Vie sociale et surveillance

Idée no 1 : La surveillance est une composante indissociable de toute vie sociale.

Ceci est vrai de toutes les sociétés humaines, tout comme de nombreuses sociétés animales, et même végétales.

Idée no 2 : La surveillance prend de multiples formes entrainant des conséquences très différentes, voire opposées.

Je suis grand grand-père. J’ai évidemment surveillé mes enfants et petit-enfant. Or, les formes que prend cette surveillance peuvent conduire les enfants, soit vers de plus en plus d’autonomie; soit, au contraire, vers la dépendance et la soumission.

Voilà pourquoi, idée no 3 : Les concepts proposés par l’auteur Ivan Illich d’autonomie versus hétéronomie, de convivialité et de contreproductivité sont utiles à la présente discussion.

On peut appliquer ces concepts, par exemple, à un quartier urbain convivial qui cumule les fonctions d’habitation, travail, commerce et loisirs. Un tel quartier apparait sécuritaire parce que ses habitants, travailleurs, passants et oisifs s’offrent spontanément et gratuitement une surveillance mutuelle, constante et autonome.

Inversement, un quartier non convivial à fonction unique qui est déserté durant la nuit ou le jour apparait générer l’insécurité. Aucune couteuse surveillance par policiers, gardiens ou moyens électroniques ne réussira à produire de réelle sécurité. Et une telle surveillance augmentera probablement des formes hétéronomes de pouvoir sur les individus et la communauté.

D’où l’idée no 4 : Il importe de considérer les interrelations complexes entre les structures et conditions environnementales, physiques, sociales, techniques, d’une part; et les formes de surveillance que ces structures permettent ou non ainsi que leurs effets, d’autre part.

Les critères d’évaluation

Et donc, idée no 5 : Le respect des libertés constitue un critère d’évaluation nécessaire, mais totalement insuffisant (donc inefficace seul).

En outre, idée no 6 (déjà énoncée) : La société de l’information est nécessairement une société où la surveillance se généralise, augmente en puissance et en portée ainsi que se démocratise.

Illustrons ceci par une activité de surveillance qui, à la différence du projet de loi « Accès légal » sur le pouvoir de l’État sur les communications privées , est réalisée par des acteurs privés sur des communications publiques, à savoir : les transactions boursières à haute fréquence qui constituent quelque 60 % du volume des bourses nord-américaines. Cette surveillance implique l’usage d’ordinateurs qui, chaque microseconde, surveillent et analysent l’ensemble des transactions de la planète. Cette surveillance permet aux mêmes ordinateurs d’acheter des titres à un instant donné afin de les revendre quelques secondes plus tard avec profit. Les vitesses de surveillance, d’analyse et de décision sont si grandes que les opérateurs humains ne peuvent contrôler que les éventuelles manifestations de défaillances. Comme celles qui ont provoqué le Flash Crash du 6 mai 2010 où ces systèmes automatiques ont soudainement fait plonger l’indice Dow Jones de plusieurs centaines de points en quelques minutes.

Une telle capacité se démocratise. Rappelons qu’aujourd’hui un téléphone intelligent bas de gamme est déjà plus puissant que ces gros ordinateurs centraux dont, dans les années soixante, on pensait que seuls les États auraient les moyens de se les payer. Que la clientèle des logiciels d’exploration de données, nécessaires pour produire des résultats de la surveillance numérique, se divise grossièrement en quatre secteurs : académique (enseignement et recherche), commercial (markéting, R et D), renseignement policier et militaire, et ce qu’on appelle la société civile (organisations diverses et individus). Que des informations sur les comportements des individus et organisations n’ont jamais été produites en aussi grand nombre, ni n’ont jamais été aussi accessibles (prenons seulement l’abondance des informations personnelles diffusées via les media sociaux).

Certaines surveillances peuvent aisément être qualifiées de néfastes, comme celles sur les communications privées des citoyens ou sur leurs activités politiques légitimes. D’autres surveillances peuvent aisément être qualifiées de bénéfiques, comme celles portant sur qui finance les partis politiques et sur qui fait quel lobbying auprès de quels décideurs.

Cependant, idée no 7 : La majorité des activités surveillances qui vont émerger ne seront pas si aisément qualifiables : l’évaluation de leur nature et de leurs effets nécessiteront délibérations.

D’où l’idée no 8 : En nous s’inspirant d’une proposition des économistes Samuel Bowles et Herbert Gintis, nous pourrions énoncer que : toute surveillance doit être soumise à l’application des principes de libertés; mais que toute surveillance impliquant l’exercice d’un pouvoir social doit être soumise aussi à l’application des principes de démocratie.

Cela, peu importe, la nature publique ou privée des actes surveillés; ou l’identité étatique, commerciale ou civile des surveillants.

Logiquement, ces mêmes principes doivent également s’appliquer aux décisions relatives aux structures et conditions environnementales, physiques, sociales et techniques qui déterminent les formes que la surveillance peut ou non prendre. D’ailleurs, divers mouvements sociaux expriment la même revendication, qu’il s’agisse d’exploitation du gaz de shale ou d’activités de haute finance : l’obligation de subir l’action d’autrui appelle le droit de savoir et le droit d’avoir son mot à dire.

En guise de conclusion provisoire

Idée no 9 : Une telle démocratisation radicale appelle de profondes transformations juridiques, parlementaires et politiques des échelles locales jusqu’à l’échelle internationale.

De telles transformations pourraient d’ailleurs être facilitées par divers développements que pourraient prendre des sociétés de l’information.

Cependant, idée no 10: Les formes exactes que ces transformations devraient prendre demeurent encore à être définies.

Ici, notre situation actuelle est quelque peu similaire à celles des différents mouvements d’Indignés (tels OccupyWallStreet) qui identifient clairement en quoi des pratiques actuelles sont inacceptables sans pouvoir définir quels devraient être les options de rechanges. Cependant, il devient tout autant urgent de concevoir des solutions concrètes. Illustrons de deux cas concrets.

Le paiement électronique

Le premier cas en est un de privatisation d’une décision de nature publique. Il concerne l’introduction en Amérique du Nord de cartes bancaires à microprocesseur qui soulèvent des questions de surveillance individuelle et collective. Le paiement électronique constitue un « monopole radical » pour reprendre un autre concept d’Ivan Illich : si les citoyens conservent le choix de l’institution financière qui leur fournira la carte bancaire, il n’existe qu’un seul système de paiement électronique qui s’impose à toutes les institutions financières et à tous leurs clients sur un territoire donné.

Or, le choix d’un nouveau système de paiement à microprocesseur n’est pas anodin. Car, il existe des dizaines de concepts d’application de cette technologie qui s’avèrent très différents du point de vue de la surveillance individuelle. Certains concepts peuvent rendre le paiement électronique aussi anonyme que l’est l’usage du papier monnaie. Par exemple, l’institution financière sait à la fin de la journée qu’elle doit débiter le compte de tel client de tel montant global, mais demeure incapable de faire le lien avec les différents fournisseurs chez qui ce client a dépensé. À l’autre bout du spectre, il existe des concepts qui offrent à l’institution financière une manne d’information sur qui s’est procuré quoi chez qui précisément à quel moment et à quel montant. Le choix entre un type de concept ou un autre relève peu de contraintes techniques ou budgétaires. Il est, en pratique, une décision de nature politique sur le niveau de surveillance que les institutions financières peuvent ou non exercer sur les activités de leurs clients. Or, ce ne sont pas les parlements élus qui en décident. Ces parlements ont plutôt abandonné cette décision à des clubs privés d’institutions financières (au Canada, l’Association canadienne des paiements).

Or, il n’y a pas que la surveillance des clients individuels qui est en cause. La généralisation du paiement électronique offre aux institutions financières une vue imprenable en temps réel sur les activités et situations économiques de sociétés entières. Voilà qui constitue un avantage stratégique indéniable en période de tourmente économique. Surtout lorsqu’on compare à la situation des gouvernements, médias et sociétés civiles qui, eux, doivent débattre de mesures qui n’auront d’effets que dans plusieurs mois dans le futur sur la base de statistiques reflétant des situations souvent vieilles de quatre mois dans le passé. Pourquoi seules les institutions financières pourraient-elles disposer de données aussi à jour?

Dans la surveillance individuelle comme dans la surveillance sociétale, le principe de démocratie devrait s’appliquer – en sus de celui de libertés – à l’égard de décisions portant sur des pouvoirs sociaux d’une telle ampleur. Faut-il que les parlements récupèrent le pouvoir de légiférer publiquement en ces matières? Ou faut-il démocratiser les travaux de clubs telle l’Association canadienne de paiement? Ou suivre un tout autre modèle de démocratisation des décisions?

Les passeports

Le second cas en est un d’internationalisation d’une décision publique. C’est celui des passeports qui servent à la surveillance des passages aux frontières des citoyens, et souvent de leurs déplacements à l’intérieur de ces frontières. Les normes en matière de conception des éléments électroniques et biométriques des passeports sont prises dans des instances internationales, telle l’Organisation de l’aviation civile internationale (OACI), par de hauts fonctionnaires des États membres entourés de lobbyistes des industries aériennes et des technologies de surveillance. Les parlements nationaux se retrouvent souvent devant le seul choix d’entériner ou non des normes déjà établies ailleurs.

Ici encore, il faut trouver le moyen de préserver le principe de démocratie contre ce type de faits accomplis technocratiques via des instances internationales. Faut-il que les parlements ou les gouvernements prédébatent publiquement les options à être proposées dans les instances internationales? Faut-il démocratiser les discussions dans les instances internationales pour permettre une réelle voix aux citoyens affectés? Ou une combinaison des deux ? Ou un autre modèle?

Voici les types de transformations, qu’il est nécessaire de définir, que je vous propose d’explorer en débat.

CommunicationsInformation & DroitNotes de laboNotes

Conférence sur le droit à l’accessibilité des informations

INVITATION

Conférence de

Madame Catherine Roy,

directrice générale du Centre de recherche et d’expérimentation en inclusion numérique

sur

le droit à l’accessibilité des informations

(droit à l’accès aux documents sous des formes et supports lisibles par chacun)

en marge de l’arrêt Donna Jodhan c. Procureur général du Canada

Notamment membre fondatrice du groupe de travail HTML for all du Word Wide Web Consortium (W3C) et ainsi que de W3Québec (organisme de promotion des standards ouverts et bonnes pratiques Web et multimédia), Madame Roy traitera notamment des rôles respectifs des normes législatives et des standards techniques dans l’évolution du droit, ici en regard de l’accessibilité des informations.

Lundi 11 avril 2011 de 18 h à 19 h 30, salle A-1720 de l’UQAM dans le cadre du cours Droit de l’information (JUR5512).

Entrée libre (le nombre de places étant limité, prière de confirmer votre présence par courriel : peladeau.pierrot @robase uqam.ca)

Jodhan c. P. G. du Canada

L’élément d’actualité juridique au coeur de la conférence est le récent arrêt de la Cour fédérale de novembre 2010, Donna Jodhan c. Procureur général du Canada, tel qu’amendé par une décision de janvier 2011 (version française : http://decisions.fct-cf.gc.ca/fr/2010/2010cf1197/2010cf1197.html ; version anglaise : http://decisions.fct-cf.gc.ca/en/2010/2010fc1197/2010fc1197.html ). La principale question en litige était à savoir si le gouvernement fédéral avait porté atteinte aux droits à l’égalité garanti par la Charte canadienne, soit en établissant des normes techniques inadéquates d’accessibilité des informations disponibles sur le Web, soit en n’ayant pas appliqué les normes techniques existantes.

Droit de l’information

Ce cours prend acte qu’une large part de la régulation juridique des relations interpersonnelles médiatisées par des maniements d’informations découle aujourd’hui de contrats d’adhésion, de standards techniques ainsi que de règles et procédures incorporées dans les dispositifs informationnels même.

Notes de laboVivre entre les lignesNotesObservationsRéflexions

La vérité des informations personnelles comme indice de moralité sociale?

ObservationsLe niveau d’exactitude des informations personnelles peut-il être un indice de la justesse morale du système social dans lequel ces informations sont utilisées?

Cette question m’est venue alors que j’effectuais de travaux de rénovation à la maison en écoutant l’émission Tapestry (CBC One). Cette semaine, Mary Hynes recevait Sam Harris en marge de la publication de son livre The Moral Landscape: How Science Can Determine Human Values (l’horizon moral : comment la science peut déterminer les valeurs humaines). Une entrevue étonnamment courte compte tenu de la prédilection de l’émission à consacrer toute l’heure à un seul personnage ou sujet. En écoutant Harris, on comprend. Il propose certes une thèse convaincante à propos de la capacité de la science à éclairer une question morale, voire même à trancher entre ce qui est bien et mal. Cependant, la hargne de ses attaques contre les religions agace vite, affaiblissant d’autant sa démonstration.

Reste que, par exemple, la neuroscience peut constater objectivement grâce au scanneur et à analyse hormonale que, règle générale, une action altruiste fait du bien aux êtres humains qui la posent comme à ceux qui la reçoivent. Elle constate tout aussi exactement l’effet inverse d’une action égoïste, et que c’est encore pire pour une action malfaisante. Beaucoup de développements en biologie, en éthologie et ethnologie ainsi qu’en psychologie et sociologie offrent effectivement un éclairage de plus en plus révélateur sur diverses questions morales. Comme le souligne Harris, la science offre ici l’avantage de transcender les cultures, les religions et les systèmes moraux particuliers du fait du caractère démontrable et universel de ses conclusions.

Quel rapport avec la qualité des informations personnelles? La réponse courte est que, d’une part, la science est dépendante de la qualité de ses données et que cette qualité dépend souvent de la volonté ou capacité des humains à dire la vérité. Or d’autre part, le niveau de véracité des informations fournies est mesurable… scientifiquement.

La réponse anecdotique tient à deux observations récentes sur la nécessité de… mentir. (suite…)

Critique du recensementVivre entre les lignesNotesObservations

Un professionnel des méthodes quantitatives nous répond…

Débats - DebatesVoici une réponse reçue à l’article précédent de la part d’un professionnel qui m’a écrit, mais ne souhaite cependant pas être identifié pour l’instant:

Un professionnel des méthodes quantitatives

L’idée qu’un échantillon volontaire diminue la fiabilité et la validité des données est un fait aussi accepté aujourd’hui que l’idée que la terre est ronde. […] Il y a de nombreux articles qui portent sur l’ampleur du biais, sur ses raisons, sur les façons que l’on tente, tant bien que mal, de contourner ces biais, etc. Mais on ne réussit jamais vraiment à contourner.

[Quant à la conclusion du juge Boivin] Je n’ai pas lu les arguments en faveur d’un questionnaire volontaire et comment ils pensent pouvoir éviter les biais échantillonnaux. Bien sûr qu’il y a une incertitude quant au degré de fiabilité des données de l’ENM, puisqu’on n’a jamais fait un tel exercice auparavant. Il y a une certitude quant au fait que les données seront biaisées, mais il est difficile de prévoir à l’avance l’ampleur et la nature de ce biais.

Augmenter le nombre de questionnaires longs ne changera rien au biais, et rien ne nous permet de croire qu’une campagne publicitaire permettre de corriger le biais. La campagne pourrait très bien l’accentuer (surtout si elle est faite uniquement dans les deux langues officielles). (suite…)

Critique du recensementDébatsVivre entre les lignesNotesObservations

Questions aux statisticiens et spécialistes des méthodes quantitatives relativement à la fiabilité d’un recensement volontaire

En marge de la décision sur la requête de la Fédération des communautés francophones et acadienne du Canada

ObservationsLe juge Richard Boivin de la Cour fédérale a entendu des preuves et des témoignages présentés au soutien et en opposition à l’Enquête nationale auprès des ménages (ENM) qui, à participation volontaire, remplace l’ancien formulaire long du recensement qui était obligatoire sous peine d’amende et même de prison. Le juge a conclu, cette semaine, « qu’il existe une incertitude quant au degré de fiabilité des données qui émaneront de l’ENM »… sauf que la Cour « n’est pas convaincue que les données de l’ENM ne seront pas fiables au point qu’elles seront inutilisables ».

Rappelons que le gouvernement conservateur a décidé de soustraire le questionnaire long du cadre légal obligatoire du recensement canadien pour le rendre volontaire. Pour compenser une éventuelle baisse de participation, il a prévu une augmentation de quelque 50 % du nombre de questionnaires longs (de 3 à 4,5 millions de ménages au cout additionnel de 30 millions de dollars) ainsi qu’une campagne de publicité incitative.

De nombreux statisticiens, démographes et chercheurs ont dénoncé cette décision. Selon eux, le volontariat entrainerait une diminution significative de la participation, notamment dans certaines portions de la population (plus pauvres, moins scolarisées, de certaines origines ethniques). Le résultat serait des données moins représentatives et biaisées qui déformeraient donc les portraits démographiques du pays, des régions et des communautés locales. Cependant, outre ces affirmations générales, les interventions publiques dans les médias n’ont jusqu’ici rapporté aucune démonstration statistique à l’appui. La conclusion du juge Boivin semble conforter cette perception.

Je fais donc ici un appel aux statisticiens et aux spécialistes des méthodes quantitatives afin de mieux préciser certains éléments clés du débat. (suite…)

Critique du recensementVivre entre les lignesNotesObservations

Les conservateurs canadiens bataillent sur le recensement… étatsunien

ObservationsJ’ai écrit en juillet que la décision du gouvernement conservateur d’abolir le caractère obligatoire du formulaire long du recensement provenait probablement d’une observation des controverses autour du récent recensement étatsunien ainsi que sur les possibles risques et opportunités politiques de leur transposition ici au Canada.

La suite des déclarations subséquentes des conservateurs a amplement démontré que la rationalité de leur décision relevait plus du calcul partisan que de la rationalité administrative ou du respect des droits des citoyens. Aujourd’hui, l’opposition libérale dépose un projet de loi pour rendre obligatoire le formulaire long, toujours sous peine d’amendes, mais sans peine de prison. Comme si l’opposition aux Communes suivait aveuglement le rôle qui lui avait été attribué dans un des scénarios possibles envisagés par les conservateurs.

Cependant, l’inspiration étatsunienne de la stratégie et du discours à l’appui n’a jamais été aussi clairement mise au jour que par les déclarations du ministre Tony Clement mardi dernier. Jennifer Ditchburn de La Presse canadienne rapporte que, selon Clément, les recenseurs pourraient déjouer le système et faire main basse sur les informations personnelles des Canadiens. Même si Statistique Canada a des politiques claires, « certains recenseurs sont recrutés dans le même voisinage que les répondants ». Cela signifie, selon M. Clement, que « votre voisin peut connaitre certaines de vos informations les plus personnelles et les plus intimes ».

Or, le ministre décrit ici la situation existant aux États-Unis où, constitution oblige, le recensement doit être obligatoirement conduit par des recenseurs. Au Canada, le recensement est autoadministré depuis… 1971. L’une des raisons de l’abandon des recenseurs était précisément liée à une question de respect de la vie privée. Il s’agissait moins d’éviter le risque d’espionnage, que de réduire le caractère intrusif et intimidant d’une visite par un possible voisin et donc les biais découlant de l’hésitation à répondre franchement aux questions, voire à répondre tout court. D’ailleurs Statistiques Canada a comme politique, pour les rappels de suivis téléphoniques, à recourir à des recenseurs qui ne doivent pas être de la région du citoyen contacté.

Bref, le jupon dépasse. Les derniers arguments de Clement sont clairement une importation copier-coller étatsunienne n’ayant aucune pertinence dans le contexte canadien. Une erreur si grossière n’aurait pas eu lieu si la décision conservatrice avait été prise sur la base d’une analyse des besoins d’amélioration du recensement canadien. D’ailleurs, si on avait voulu améliorer le recensement, on aurait amendé le formulaire long plutôt que passer l’été à en dénigrer les questions qu’il contient, et même celles qu’il ne contient pas…

Critique du recensementVivre entre les lignesNotesObservations

Recensement 2011 : Le théâtre des peurs

Connaissez-vous quelqu’un qui aurait complété le recensement par crainte de peine d’amende ou prison pour non-réponse ? Non ? Quelqu’un qui ne l’ayant pas complété aurait eu cette crainte ? Non plus ? Alors, posons la question: de quoi le gouvernement Harper a-t-il peur, lui ?

La décision de soustraire le questionnaire long du cadre légal obligatoire du recensement pour le rendre volontaire a engendré des craintes réelles. Les milieux scientifiques, d’affaires et municipaux craignent un affaiblissement de la fiabilité des données nécessaires à leurs travaux et décisions stratégiques. Les organisations de francophones hors Québec, de femmes et d’autres minorités, de ne plus disposer des chiffres sur lesquels fonder la défense de leurs droits et intérêts.

Cependant, l’accusation que les conservateurs ne veuillent plus recueillir des informations susceptibles de contredire leurs politiques colle mal. Premièrement, il s’agirait d’un jeu dangereux: les résultats biaisés d’un recensement bâclé pourraient les desservir. Deuxièmement, cette explication cadre mal avec une augmentation de 50 % du nombre de questionnaires longs (de 3 à 4,5 millions de ménages au cout additionnel de 30 millions de dollars) et une campagne de publicité incitative. Troisièmement, les pointilleuses pratiques de révision des programmes de ce gouvernement et, surtout, les stratégies de politique de division de l’électorat (wedge politics) du Parti conservateur requièrent des statistiques de références fiables. (suite…)

1 comment |
line
footer
Powered by WordPress | Designed by Elegant Themes