Le débat fait rage entre orthodoxes et hétérodoxes autour de la caractérisation de l'économie comme science. Ces derniers ont commencé l'échange par des propos peu respectueux, en choisissant par exemple comme titre pour la traduction du livre de Steve Keen « L'Imposture économique ». Pierre Cahuc et André Zylberberg ont répliqué en intitulant leur ouvrage « Le Négationnisme économique », là où il aurait été moins choquant d'utiliser, comme dans le monde anglo-saxon, le terme de « déni scientifique ». Laissons de côté la polémique pour revenir à la définition poppérienne de la science : une succession d'énoncés réfutables qui ne sont que des suppositions évoluant au gré de leur confrontation à la réalité.
L'économie dispose aujourd'hui de méthodes permettant de s'appuyer avec un certain degré de confiance sur l'observation. La question clef ici est l'« inférence causale » : est-on capable, par exemple, d'identifier lorsqu'un chômeur redevient actif ce qui est imputable aux politiques publiques ? Depuis les années 1920, avec les travaux pionniers du biostatisticien Ronald Fisher, les scientifiques ont développé une approche inspirée de la méthode du placebo en médecine, consistant à répartir aléatoirement les individus en deux groupes. Seul le premier groupe sera affecté par la mesure étudiée. La comparaison de l'évolution des deux groupes permet de mesurer l'effet de la mesure. Comme il est souvent difficile de réaliser de telles expériences « randomisées » en sciences sociales, une palette d'outils dits « quasi expérimentaux » se sont développés depuis.
Ces approches empiriques font l'objet de débats récurrents, qui poussent les chercheurs à raffiner au fil des années leurs méthodes, voire à remettre en cause des résultats établis. En 2010, ce débat a vu le récent prix Nobel Angus Deaton critiquer la méthode des expériences randomisées, tandis que Joshua Angrist et Jörn-Steffen Pischke évoquaient, au contraire, la « révolution » apportée depuis vingt ans par ces méthodes expérimentales venues crédibiliser de nombreux champs de l'économie. Deux questions se posent naturellement : un résultat est-il valable en soi ? Dans le cas d'une expérience randomisée, cela suppose notamment qu'il n'y ait pas de biais dans la construction des deux groupes. Est-il transposable à d'autres situations ? L'économie est une science sociale, ses énoncés peuvent être justes à un instant et un endroit donnés, incorrects ailleurs. Pour cette raison, les chercheurs mènent des « méta-analyses » en cherchant à obtenir des causalités plus solides à partir de nombreuses études menées sur une même question dans différents pays.
L'absence de certitudes en économie vient confirmer qu'il s'agit bien d'une science (expérimentale) au sens de Popper, et ne doit pas servir d'argument pour omettre du débat public les nombreux travaux désormais disponibles. Malheureusement, l'actualité récente nous montre combien la sphère politique, au lieu de chercher à comprendre ce qui n'a pas marché pour corriger le tir, préfère ignorer sciemment les évaluations négatives. Ainsi, deux « méta-analyses » publiées en 2010 concluaient qu'un jeune disposant d'un emploi d'avenir - un emploi public subventionné - a plus de chances de se retrouver exclu du marché du travail par la suite que s'il n'en avait jamais bénéficié ! Ces résultats étaient cités par la Cour des comptes dès 2011, et cela n'a pas empêché le gouvernement d'user de cette politique inefficace. La droite n'est pas en reste, deux des mesures phares annoncées lors du débat de la primaire - baisse des charges sur les salaires moyens et renforcement du quotient familial - n'ont pas les effets escomptés sur le chômage et la natalité. Ignorer ou nier les travaux académiques est ici une bonne manière de faire passer un cadeau électoral pour une mesure d'intérêt public.