mars 2023

Les sondages et l’opinion publique : guide pour les législatrices et législateurs 

Nick Ruderman | Agent de recherche

Notes

[1] Par exemple, Sidney Verba avance l’argument suivant : « [l]a participation dépendant des ressources et celles-ci étant inégalement distribuées, la communication qui en résulte est une représentation biaisée du public. Ainsi, l’idéal démocratique de la représentation égale n’est pas respecté. Les enquêtes par échantillonnage donnent la meilleure approximation d’une représentation fidèle du public, puisque la participation n’exige pas de ressources et qu’on élimine les biais de sélection liés au fait que les participants au processus politique se sélectionnent eux-mêmes. » (« The Citizen as Respondent: Sample Surveys and American Democracy – Presidential Address, American Political Science Association, 1995 », American Political Science Review, vol. 90, no 1 (1996), pages 1 à 7.) 

[2] Voir, par exemple, Sean Jeremy Westwood, Solomon Messing et Yphtach Lelkes, « Projecting Confidence: How the Probabilistic Horse Race Confuses and Demobilizes the Public », The Journal of Politics, vol. 82, no 4 (2020); J. Scott Matthews, Mark Pickup et Fred Cutler, « The Mediated Horserace: Campaign Polls and Poll Reporting », Canadian Journal of Political Science, vol. 45, no 2 (2012), pages 261 à 287; et « The media: all horse race, all the time », Policy Options, 1er avril 2007. 

[3]  Guy Lachapelle, Les sondages et les médias lors des élections au Canada : le pouls de l'opinion, vol. 16 de la Collection d’études, Commission royale sur la réforme électorale et le financement des partis et Groupe Communication Canada (Toronto et Oxford : Dundurn Press, 1991), page 5. Lachapelle attribue l’origine du terme à Jean-Jacques Rousseau, de l’époque où il était secrétaire de France aux affaires étrangères. 

[4]   Pour une discussion sur les analyses de l’opinion publique en Grèce ancienne, par exemple, voir Herbst, « The History and Meaning of Public Opinion » dans New Directions in Public Opinion (deuxième édition), éd. Adam J. Berinksy (New York : Routledge, 2016), pages 22 à 24. 

[5] Ibid., pages 5 et 6; D. Sunshine Hillygus, « The Evolution of Election Polling in the United States », Public Opinion Quarterly, vol. 75, no 5 (2011), pages 962 à 981. 

[6] Lachapelle, page 7. 

[7] D. Sunshine Hillygus, « The Practice of Survey Research », New Directions in Public Opinion (deuxième édition), éd. Adam J. Berinksy (New York : Routledge, 2016), page 39. 

[8]  D. Sunshine Hillygus, « The Evolution of Election Polling in the United States », Public Opinion Quarterly, vol. 75, no 5 (2011), page 964.

[9] Ibid. Voir la dernière section du présent guide pour une analyse détaillée de cette méthode d’échantillonnage et des types d’outils statistiques utiles que permet le recours à cette méthode.

[10] Michael W. Traugott et Paul J. Lavrakas, The Voter’s Guide to Election Polls (troisième édition) (Lanham: Rowman & Littlefield, 2004), page 165. 

[11] Andrew Mercer, « 5 things to know about the margin of error in election polls » Pew Research Centre, 8 septembre 2016. 

[12] Lachapelle, pages 10 et 11. 

[13] Lachapelle, pages 10 et 11. Adams situe cette évolution encore plus tard, faisant valoir que « l’ère moderne du sondage d’opinion date vraiment des années 1970 et 1980, époques où les partis politique, la recherche et les médias sont devenus obsédés par les sondages » (xiv).  

[14]  Étude électorale canadienne, « Quoi de neuf? ». 

[15] Asher, pages 198 et 199. Notez toutefois que les données recueillies de cette façon ne sont pas sans inconvénients. La difficulté de retracer les mêmes répondantes et répondants pour de nouvelles entrevues peut causer des problèmes d’attrition à l’origine de certaines distorsions des données, et le fait d’avoir déjà répondu au sondage initial peut influer sur les réponses subséquentes du sujet (notamment en attisant son intérêt pour certaines questions). 

[16] Ibid. 

[17] Asher, page 144. 

[18]  Allyson L. Holbrook, Melanie C. Green et Jon A. Krosnick, « Telephone Versus Face-to-Face Interviewing of National Probability Samples with Long Questionnaires: Comparisons of Respondent Satisficing and Social Desirability Response Bias », Public Opinion Quarterly, vol. 67 (2003), pages 79 à 125. 

[19] Frauke Kreuter, Stanley Presser et Roger Tourangeau, « Social Desirability Bias in CATI, IVR, and Web Surveys: The Effects of Mode and Question Sensitivity », Public Opinion Quarterly, vol. 75, no 5 (2008), pages 847 à 865.  

[20] Holbrook, Green et Krosnick, page 79. 

[21] Asher, page 144. 

[22] Ibid

[23] Ibid., page 145.

[24] Loleen Berdahl et Keith Archer, Explorations: Conducting Empirical Research in Canadian Political Science (troisième édition) (Don Mills : Oxford, 2015). 

[25] Ibid. 

[26] Voir Asher, pages 151 et 152, pour une analyse de ces écoles de pensées divergentes qui ont été sources d’une importante controverse chez les sondeuses et sondeurs. 

[27] Asher, page 117. Voir la dernière section pour un exposé détaillé du problème des taux de réponse à la baisse (le biais de non-réponse). 

[28] Holbrook, Green et Krosnick, page 79. 

[29] Berdahl et Archer, page 192 (voir l’exposé sur le biais de désirabilité sociale dans la section sur les entrevues en personne). 

[30] Asher, page 142. 

[31] Ibid

[32] La personne qui mène l’entrevue directement ou par enregistrement peut participer à la collecte des données par sondage Web, mais c’est rare.   

[33] Pour une discussion plus approfondie des cinq sortes de sondages en ligne par échantillonnage probabiliste et des trois sortes de sondages en ligne par échantillonnage non probabiliste, voir, Mick P. Couper, « Web Surveys: A Review of Issues and Approaches », Public Opinion Quarterly, vol. 64 (2000), pages 464 à 494. 

[34] Hillygus, « The Practice of Survey Research », page 41. 

[35] Berdahl et Archer, page 192. 

[36] Asher, page 155. 

[37]  Ibid., page 156. 

[38] Scott Keeter, « From Telephone to the Web: The Challenge of Mode of Interview Effects in Public Opinion Polls », Pew Research Centre, 13 mai 2015. 

[39] Ibid

[40] Ibid

[41] Asher, page 107. 

[42] Hillygus, « The Practice of Survey Research », pages 39 à 41. 

[43] Courtney Kennedy, Andrew Mercer, Scott Keeter, Nick Hatley, Kyley McGeeney et Alejandra Gimenez, « Evaluating Online Nonprobability Surveys », Pew Research Centre, 2 mai 2016. 

[44] Peter M. Butler, Polling and Public Opinion: A Canadian Perspective (Toronto: University of Toronto Press, 2007), page 57. 

[45] Pour un exemple sur la façon dont la recherche sur les groupes de discussion peut donner l’idée de tests plus systématiques à l’aide de données de sondage représentatives, voir Elisabeth Gidengil et Heather Bastedo Eds., Canadian Democracy from the Ground Up: Perceptions and Performance (Vancouver: UBC Press, 2014), plus particulièrement les chapitres 2, 4 et 11. 

[46] Mick P. Couper, « New Developments in Survey Data Collection », Annual Review of Sociology, vol. 43 (2017), pages 121 à 145. 

[47] Voir, par exemple, Yannick Dufresne et Nick Ruderman, « Public Attitudes toward Official Bilingualism in Canada: Making Sense of Regional and Subregional Variation », American Review of Canadian Studies, vol. 48, no 4 (2018), pages 371 à 386; Andrea Carson, Shaun Ratcliff et Yannick Dufresne, « Public opinion and policy responsiveness: the case of same-sex marriage in Australia », Australian Journal of Political Science, vol. 53, no 1 (2018), pages 3 à 23. 

[48] André Blais, « Why is there so Little Strategic Voting in Canadian Plurality Elections? », Political Studies, vol. 50, no 3 (2002), pages 445 à 454. 

[49]  Voir, par exemple, Strategic Voting 2021 Canadian Federal Election, « Our Methodology and Criteria ». 

[50] Lachapelle, pages 15 et 16. 

[51]  Pour une revue de cette littérature, voir Matthew Barnfield, « Think Twice before Jumping on the Bandwagon: Clarifying Concepts in Research on the Bandwagon Effect », Political Studies Review, vol. 18, no 4 (2020), pages 553 à 574. 

[52] Traugott et Lavrakas, page 35. 

[53] American Association for Public Opinion Research, "What is a "Push" Poll?"  

[54] Traugott et Lavrakas, page 35. 

[55] Ibid

[56]  Canada, Commission royale sur la réforme électorale et le financement des partis, rapport final, Toronto (Ont.), volume 1, (Ottawa : ministre de l’approvisionnement et des services, 1991), pages 455 à 461. 

[57] Thomson Newspapers Co. c. Canada (Procureur général), (29 mai 1998). 

[58] Loi électorale du Canada, par. 328(2) (« Période d’interdiction pour les sondages électoraux »). 

[59]  Ibid., articles 326 à 328. Dans ce contexte, le terme sondage électoral est défini comme : « [un] sondage mené pour évaluer si des personnes ont l’intention de voter, pour qui elles vont voter ou pour qui elles ont voté à une élection ou portant sur une question à laquelle un parti enregistré ou un candidat est associé » (Loi électorale du Canada, paragraphe 2(1). 

[60] Ibid., paragraphe 326(1) (« Sondages électoraux »). 

[61]  Ibid., paragraphe 326(3) (« Accès au compte rendu des résultats »). 

[62] Ibid., article 349 (« sondage électoral »). 

[63] Élections Canada, « chapitre 7. Activités réglementées : les sondages électoraux en période électorale », Manuel sur le financement politique des tiers, des agents financiers et des vérificateurs – Juin 2021

[64] Loi sur le financement des élections, paragraphe 36.1(1) (« Interdiction »).

[65] Ibid., paragraphe 36.1(3).  

[66]  Ibid., paragraphe 1(1) (« publicité politique »). 

[67] Title LXIII – Elections, Chapter 664: Political Expenditures and Contributions, RSA 664:1 (Applicability of Chapter). 

[68] Ibid

[69] Sarah Schweitzer, « Pollsters cry foul over '98 N.H. law; Say push-poll measure is too broad, punitive », Boston Globe, 8 avril 2012.  

[70] Denise-Marie Ordway, « 11 questions journalists should ask about public opinion polls », The Journalist’s Resource: Informing the News, 14 juin 2018.

[71] Asher, chapitre 9. 

[72] Scott Keeter, « From Telephone to the Web: The Challenge of Mode of Interview Effects in Public Opinion Polls ». 

[73] Asher, page 154 

[74] Scott Keeter, « From Telephone to the Web: The Challenge of Mode of Interview Effects in Public Opinion Polls ». 

[75] Ibid

[76] Hillygus, « The Practice of Survey Research », page 49. 

[77] Andrew Mercer, « 5 things to know about the margin of error in election polls », Pew Research Center, 8 septembre 2016. 

[78]  Asher, p. 130. 

[79] Andrew Mercer, « 5 things to know about the margin of error in election polls », Pew Research Center, 8 septembre 2016. 

[80] Asher, pages 124 et125.

[81] Asher, page 124.

[82]   En effet, d’après Hibberts et coll., « [l]e taux de réponse de l’échantillon dépend grandement de la méthode utilisée. Même si les taux de réponse varient d’un sondage à l’autre, il est assez bien admis que les sondages en personne suscitent les taux de réponse les plus élevés, suivis des sondages téléphoniques; les enquêtes postales et les questionnaires à remplir soi-même présentent les taux les plus faibles. » (Mary R. Hibberts, Burke Johnson et Kenneth Hudson, « Common Survey Sampling Techniques », dans Handbook of Survey Methodology for the Social Sciences, édité par L. Gideon (New York: Springer, 2012), pages 53 à 74.) 

[83] Butler, page 69. 

[84] Asher, page 282. 

[85] Ibid., page 43. 

[86] Voir, Butler, pages 109 à 117, pour un survol de ces points.