Le cycle économique : une synthèse

INTRODUCTION
Comme dans la plupart des cas, mener à bon port des travaux de recherche consiste en la mise en place des hypothèses cohérentes qui, tout au long de l’étude seront vérifiées. Pour ce faire, la vérification de ces hypothèses s’effectue à partir d’un travail économétrique qui part de la collecte des données, à la mise en place d’un modèle répondant aux évocations théoriques antérieures et se poursuit avec l’estimation sous des méthodes appropriées établi à l’avance.
Du point de vue économétrique, nous pouvons considérer qu’un modèle n’est autre qu’une présentation formalisée de la réalité ou d’un phénomène sous forme d’équations dont les variables sont des grandeurs économiques. L’objectif du modèle est de relever les points les plus marquants d’une réalité qu’il cherche à styliser. Le modèle est donc l’outil que le modélisateur se sert lorsqu’il cherche à comprendre et à expliquer des phénomènes. A cet effet, il émet des hypothèses et formule des relations.
Dans le cadre de notre étude où l’on se propose d’étudier le lien entre le cycle du crédit et le cycle de l’activité économique dans la CEMAC et pour mette en exergue ce que nous évoquions ci-dessous, nous allons dans ce chapitre procéder dans un premier à la mise en évidence du cadre analytique de notre travail et dans un second temps à la présentation de la méthodologie et des variables.
SECTION 1 : CADRE ANALYTIQUE
Données économétriques
Après avoir été représentées par des formes fonctionnelles adéquates, les relations théoriques (c\’est-à-dire le modèle) peuvent être confrontées aux données observées. Il s\’agit de vérifier en ce sens leur caractère explicatif de la réalité et de mesurer concrètement la valeur de leurs paramètres. Il est donc possible de calculer les taux de réaction des variables endogènes aux variables exogènes.
Nous pouvons distinguer les types de données suivants :
séries temporelles : elles sont fréquemment utilisées en économétrie. Il s’agit d’une succession des variables à intervalle de temps réguliers. Exemple : consommation annuelle, revenu annuel, l’investissement annuel, etc.
Coupe instantanée : Les données sont observées au même instant et concernent les valeurs prises par la variable pour un groupe d’individus bien spécifiques (la consommation d’eau de la population de Yaoundé au premier trimestre de l’année).
Panel : la variable représente les valeurs prises par échantillon à intervalles réguliers. Exemple : la consommation d’électricité d’un échantillon de la population de Yaoundé sur 15ans.
Cohorte : très proches de données de panel, les données de cohorte se distinguent de la précédente
par la constance de l’échantillon, les individus sondés sont les mêmes d’une période sur l’autre.
Cependant les données en panel disposent à la fois les caractéristiques d’une dimension temporelle et d’une dimension individuelle, ce qui permet de rendre compte simultanément de la dynamique des comportements et de leur éventuelle hétérogénéité.
Sur le plan technique, l’utilisation des données de panel dégage plusieurs avantages liés à l’ajout d’une dimension comme l’indique Hsiao (2007). Parmi les plus importants, il est possible de citer la hausse de la variabilité des données et l’augmentation du nombre de degrés de liberté (Sevestre, 2002). Le recours aux données de panel permet aussi de réduire les problèmes fréquents en séries temporelles de colinéarité entre les variables explicatives grâce à la possibilité d’introduire des divergences inter individuelles (Pakes et Griliches, 1984). Ces effets individuels présentent le second avantage de pouvoir identifier et de tenir compte d’effets inobservables.
Modèles de données de panel
Les données de panel sont une combinaison de données transversales et de données de séries temporelles. L’ensemble se compose simplement de plusieurs pays (par exemple) observés à plusieurs dates.
Nous pouvons regrouper les données de panel en trois grandes catégories à savoir les panels statiques, les panels dynamiques et les panels à seuil.
Dans le cadre de notre travail, nous nous intéressons uniquement aux panels statiques.
Les panels statiques
Ces panels peuvent s’écrire sur N individus (i= 1,…, N) et T observations temporelles (t= 1,…, T), soit n= N × T observations totales, de la manière suivante :
y_it=β_i+〖β^\’〗_i x_it+ε_it Avec ε_it=β_i+δ_t+v_it
y_it: Variable endogène observée pour l’individu i à la période t ;
x_it: Vecteur des k variables endogènes x ;
β_i: L’effet spécifique individuel qui est fixe dans le temps ; il correspond à l’hétérogénéité non observée ;
〖β^\’〗_i: Vecteur des k coefficients des k variables exogènes, 〖〖 β〗^\’〗_i=(〖β^\’〗_1i,〖β^\’〗_2i,…,〖β^\’〗_ki) ;
ε_it: Terme d’erreur δ_t: composante temporelle (ou hétérogénéité inter-temporelle).
v_it: Erreur idiosyncratique, une composante spécifique à l’individu qui varie dans le temps et à travers les individus. Avec v_iti.i.d.
Dans la forme plus générale du modèle à erreur composée, on inclut dans la perturbation un effet spécifique temporel δ_t.
Avec les données de panel, la décomposition de la variance permet de voir ce qui explique la différence entre les observations : cette différence est-elle due à la variance entre les individus ou entre les dates ? Ou alors elle est un effet permanent (between) ou transitoire (within) ?
Estimateur inter individuel : estimateur des moyennes des groupes, c’est-à-dire à partir des données, on fait les moyennes des observations pour chaque individu (estimateur between), puis on fait une régression des moyennes. Le terme fixe est conservé. On s’intéresse aux variations de la moyenne des groupes autour de la moyenne totale de l’échantillon.
Estimateur intra individuel : On prend dans ce cas la différence entre la variable observée pour un individu à une certaine date et la moyenne des observations pour cet individu (estimateur within). Le terme fixe disparaît (puisque l’on s’intéresse à une différence). On ne s’intéresse alors qu’aux variations des observations autour des moyennes des groupes.
Dans le cas des modèles statiques, on distingue le modèle à effets fixes et le modèle à effets aléatoires. La principale distinction entre les modèles à effets fixes et à effets aléatoires repose sur la corrélation (ou non) des effets individuels non observés avec les variables explicatives (et non pas de savoir si ces effets sont stochastiques ou pas).
En résumé, modèle à effets fixes = modèle within (intra individuel) et modèle à effets aléatoires = modèle between.
SECTION 2 : METHOLOGIE ET PRESENTATION DES VARIABLES
Nous procédons dans cette section à la présentation de la méthodologie ainsi que de celle des données et variables.

2.1. Méthodologie
Si l’on peut faire remonter à Jevons et Juglar l’utilisation de séries longues pour caractériser les cycles économiques, le mérite d’une première véritable analyse statistique de ces séries revient à Moore (1914) et à Persons (1919) .
Pour mettre en évidence le lien entre le cycle du crédit et le cycle de l’activité économique dans la CEMAC, la méthodologie proposée dans cette étude se fonde à la fois sur des approches statistique et économétrique.
Approche statistique
Généralement, le cycle peut être défini comme étant l\’écart substantiel et durable enregistré par une variable économique autour de sa tendance d\’équilibre de long terme. Burns et Mitchell (1946) le considèrent comme une catégorie de fluctuations récurrentes, mais non périodiques.
Dans cette approche, nous utilisons les outils statistiques tels que mentionnés dans la littérature par les différents auteurs.
Filtre H-P de Hodrick Prescott (1997)
Le filtre H-P de Hodrick et Prescott permet d’extraire la composante tendancielle et ne laisser que la composante cyclique pour bien observer les mouvements cycliques des séries étudiées. Ce filtre considère que pour tout t=1…T, la série y_t est la somme d‘une tendance stochastique g_t et une composante cyclique〖 c〗_t.
y_t=g_t+c_t
La composante tendancielle g_t est la solution du programme d\’optimisation suivant :
〖Min〗_((g_t ) ) T_(t=t-1) {∑_(t=1)^T▒(y_t-g_t )^2 + λ∑_(t=1)^T▒[(g_t-g_(t-1) )-(g_(t-1)-g_(t-2) )]^2 }
Ensuite, le cycle d‘une série temporelle y_t n‘est autre que sa déviation par rapport à la tendance g_t ; La composante cyclique s’écrit donc de la manière suivante : c_t=y_t-g_t
λ≥0 est un paramètre réel.
Dans le programme de minimisation, le premier terme mesure la conformité de la tendance g_t à y_t et le second terme fourni le degré d\’accélération ou de la croissance de la tendance. Le paramètre de pénalité ou de lissage λ représente le degré de pénalité et joue un rôle décisif dans la décomposition. Lorsque λ est plus élevé, plus l\’objectif de lissage de la tendance est privilégié au détriment de l\’adéquation à la série brute et donc plus la partie cyclique est importante (Guay et al., 2005 ; Sobczak et al., 2014).
En résolvant la condition du premier ordre (CPO) du programme de minimisation pour déterminer la composante tendancielle g_t, il convient alors d\’inverser une matrice T×T représentant les T équations résultant de la résolution du programme et exprimant la série en fonction de sa tendance (Sess et al., 2007). Cette matrice ne dépend que du nombre d\’observations T et de λ.
Préalablement, Hodrick et Prescott (1997) considèrent que la composante cyclique de la série y_t (le premier terme du programme) croît de 5 pour cent, ainsi qu’un huitième pour cent pour le taux de croissance de la tendance par trimestre. Hodrick et Prescott proposent que le paramètre de lissage λ soit égal à 100, 1600 ou 14400 si les données sont, respectivement, annuelles, trimestrielles ou mensuelles. Il convient de noter que ce choix arbitraire du paramètre de lissage a fait l\’objet de plusieurs critiques dans la littérature (Guay et al., 2005; Harvey et al., 1993 ; Pedersen, 2001b) mais, n’affecte pas la robustesse du filtre (Baxter et al., 1999).
Méthode BBQ de Harding et Pagan (2002)
Pour Harding et Pagan (2002) suggèrent l‘utilisation de l‘algorithme BB de Bry et Boschan (1971) qu‘ils ont développé pour les données mensuelles et son application aux données trimestrielles (méthode notée BBQ).
Selon Harding et Pagan (2002), l‘approche BB est la plus fiable pour satisfaire les deux conditions essentielles pour une datation adéquate des cycles :
Un pic doit être suivi par un creux et un creux par un pic ;
Une phase doit au moins durer 6 mois (deux trimestres) et un cycle complet doit avoir une durée minimale de 15 mois (cinq trimestres).
L‘algorithme BB de Bry et Boschan (1971) définit alors un pic (ou un creux) comme un point qui se produit à un instant t à chaque fois que la série observée〖 y〗_t>(ou 0 ,∆y_t>0 ; ∆y_(t+1)<0 ,∆_2 y_(t+2)< 0}
un creux si : {∆_2 y_t<0 ,∆y_t0 ,∆_2 y_(t+2)>0}
Avec ∆y_t présente la dérivé de 〖 y〗_t par rapport à t et〖 ∆〗_2 y_(t+2)=y_(t+2)-y_t
Par la suite, Harding et Pagan passent à la mesure des caractéristiques des cycles à savoir :
La durée du cycle et de ses phases ;
L\’amplitude du cycle et de ses phases ;
Les mouvements cumulatifs au sein des phases (perte approximative pour les phases de récession ou gain approximatif pour les phases d‘expansion).
Pour ce faire, Harding et Pagan identifient chaque phase cyclique à un triangle dont la base est donnée par la durée de la phase et la hauteur par son amplitude.
Durée de la phase : elle est calculée comme le nombre de trimestres du pic à un creux durant les phases de contraction et de creux à un pic pour la phase d\’expansion (la base du triangle).
L\’amplitude de la phase : elle est calculée comme la baisse maximale de la série entre le pic (creux) et le creux (pic) pendant les épisodes de contraction (expansion) : la hauteur du triangle.
La perte cumulée du cycle est mesuré par l\’aire du triangle.

Indice de concordance
Proposé par Harding et Pagan (2002), l’indice de concordance est une méthode simple qui consiste à analyser la concordance entre les périodes de récession et d’expansion. Il mesure le fait de retrouver d\’une manière significative deux séries dans le meme cycle.
L’indice de concordance entre y et z noté ICyz est défini comme le nombre moyen de périodes où deux variables y et z se trouvent simultanément dans la même phase du cycle, soit :
ICyz=1/T ∑_(i-1)^T▒[S_(y,t)*S_(z,t)+(1-S_(y,t) )*(1-S_(z,t) )] (1)

Avec S_(x,t)=1_({∆_(x,t)>0} ) une variable binaire pour une série x donnée. S_(x,t) Vaut 1 si x augmente en t et 0 sinon.
ICyz prend la valeur 1 si y et z sont toujours dans la même phase. Si tel est le cas, alors il y a parfaite concordance entre les deux séries, c\’est-à-dire une parfaite juxtaposition des phases d\’expansion et de récession. Par contre, lorsque l\’indice prend la valeur 0, y et z sont toujours dans des phases opposées, c\’est-à-dire qu\’il y a parfaite anti-concordance entre les deux séries (opposition des phases), ou dans la même phase, mais avec un décalage.
En général, les propriétés de distribution de ICyz sont inconnues. Pour calculer les degrés de significativité de l\’indice, la méthode utilisée est celle suggérée par Harding et Pagan (2004). La stratégie utilisée dans cette approche consiste à exprimer l\’indice en fonction des éléments ci-après :
μ_(S_y ) : La moyenne empirique de S_(y,t); μ_(S_z ) : la moyenne empirique de S_(z,t) ;
σ_(S_y ) : L\’écart-type empirique deS_(y,t); σ_(S_z ): l\’écart-type empirique de S_(z,t) ;
ρ_S : Le coefficient de corrélation empirique entre S_(y,t) et S_(z,t) .

L’équation (1) devient :
ICyz= 1+2/T ∑_(t=1)^T▒S_(y,t) *S_(z,t)-1/T ∑_(t=1)^T▒〖S_(y,t)-1/T〗 S_(z,t)
= 1+2(1/T ∑_(t=1)^T▒S_(y,t) *S_(z,t)-μ_(S_y ) μ_(S_z ) )+2μ_(S_y ) μ_(S_z )-1/T ∑_(t=1)^T▒S_(y,t) -1/T ∑_(t=1)^T▒S_(z,t)
= 1+2COV(S_(y,t) ; S_(z,t) )+2μ_(S_y ) μ_(S_z )-μ_(S_y )-μ_(S_z )
ICyz= 1+2COVσ_(S_y ) σ_(S_z )+2μ_(S_y ) μ_(S_z )-μ_(S_y ) μ_(S_z ) (2)
Il en découle de l\’équation (2) que ICyz et ρ_S sont liés de sorte qu’il est équivalent d’étudier l’une ou l’autre de ces deux statistiques. Pour évaluer〖 ρ〗_S, Harding et Pagan (2004) proposent d’estimer la relation linéaire ci-après :
(S_(z,t)/σ_(S_z ) )=α+ρ_S (S_(y,t)/σ_(S_y ) )+ε_t (3)

Où σ_(S_z ) est l’écart-type de S_z, σ_(S_y ) l’écart-type de S_y , α est une constante et ε_t un bruit.
La significativité statistique de l\’indice est appréciée à partir des tests effectués sur ρ_S .
Corrélations croisées
Le Co-mouvement des cycles du credit et d\’activité est étudié par la méthode inspirée de Agénor et al., (2000) et Rand et Tarp (2002) résumée ci-après.
Soient y_t et z_tdeux séries stationnaires, la corrélation croisée d\’ordre k entre y_t et z_(t-k) est notéeρ_((k) ), k∈ {0,±1,±2,…,±n}, de même l\’écart type de l\’échantillon σ_T est approximé par 1/( √T) .
La corrélation est significative si|ρ(k)|<1.
Elle est significative au seuil de 5% si 2/√T<|ρ(k)|<1 et de 10% si 1/√T<|ρ(k)|<2/√T
La variable y_t est dite :

Procyclique, si k^*=argmax|ρ(k)|<1/√T ⇒ ρ(k^* ) est significativement positif ;
Acyclique, si 0<|ρ(k)|<1/√T pour tout k ;
contra-cyclique si k^*=argmax|ρ(k)| ⇒ ρ(k^* ) est significativement négatif.
Argmax est une fonction mathématique qui caractérise l\’argument qui permet de maximiser une fonction. Il désigne la valeur k* qui permet de maximiser les corrélations croisées d\’ordre k ρ(k).
L\’approche consiste donc à calculer des corrélations croisées entre les composantes cycliques des variables contemporaines, avancées ou décalées. Si y_t représente la composante cyclique du credit et z_(t±k) celle du PIB avancée ou décalée de k périodes (par exemple k ∈ {−1, 0,1}), alors :
Pour k = 0, une corrélation significativement positive indique un comportement similaire des composantes cycliques des deux variables (c\’est un comportement procyclique du credit). Inversement, une corrélation négative fait référence à un comportement opposé entre les deux variables (dit contra-cyclique du credit) ;
Pour k = -1 (ou +1), une corrélation significativement positive signale que la composante cyclique du credit est en retard (ou en avance) d\’un trimestre par rapport à celle du PIB.
Tous ces outils statistiques spécifiés ci-dessous nous permettent de répondre à notre première interrogation.
Approche économétrique
Il s’agit d’établir un lien économétrique entre le cycle du credit et le cycle de l\’activité économique, afin de montrer l\’influence de l\’un sur l\’autre au cours de la période concernée par l\’étude.

Spécification du modèle
S’agissant de notre équation, on s’est inspiré du modèle de N\’Guessan (2010) avec l’ajout de deux variables (masse monétaire et taux d’intérêt réel).
La variable dépendante retenue est le cycle du PIB, tandis que les variables explicatives sont le cycle du credit au secteur privé accordé par les banques, la masse monétaire et le taux d’intérêt réel. L\’équation à estimer s\’écrit :
〖PIBC〗_it=α_i+δ_t+β_1 〖CDSPBC〗_it+β_2 〖MMC〗_it+β_3 〖TIRC〗_it+ε_It i=1,…, N et t=1,…, T (4)
〖PIBC〗_it le cycle du produit intérieur brut du pays i de la période courant ; β_1 〖CDSPBC〗_it le cycle du crédit domestique accordé au secteur privé par les banques du pays i de la période courante ; 〖TIRC〗_it le cycle du taux d’intérêt réel du pays i à la période t, 〖MMC〗_it le cycle de la masse monétaire du pays i à la période t ; α_i la constante ; β_i les paramètres à estimer ; δ_t la composante temporelle et ε_t un bruit blanc.
Cette équation nous permet de répondre à notre deuxième interrogation.
Tests de racine unitaire
Afin d’éviter de fonder nos analyses et recommandations sur une régression fallacieuse, nous testons la stationnarité des variables prises en compte par les tests de spécification qui sont essentiellement les tests de racine unitaire sur les données de panel à savoir le tes de Levin Lin et Chu (2002), Im Pesaran et Shin (2003).
Test de Levin Lin et Chu (2002)
Le test de Levin Lin et Chu (2002) repose sur deux hypothèses principales : une homogénéité de la racine autorégressive et une indépendance entre les individus comme tous les tests de première génération. Sa mise en œuvre s’inspire de celle retenue dans les modèles de type Dickey-Fuller Augmentés (ADF) en séries temporelles. Il existe par conséquent trois modèles pour tester la présence de racine unitaire :
Modèle 1 : ∆y_(i,t)=ρ∆y_(i,t-1)+∑_(s=1)^(p_i)▒γ_(i,t-s) +μ_(i,t)
Modèle 2 : ∆y_(i,t)=α_i+∆y_(i,t)+ρ∆y_(i,t-1)+∑_(s=1)^(p_i)▒γ_(i,t-s) +μ_(i,t)
Modèle 3 : ∆y_(i,t)=α_i+β_i t+∆y_(i,t)+ρ∆y_(i,t-1)+∑_(s=1)^(p_i)▒γ_(i,t-s) +μ_(i,t) où μ_(i,t) sont i.i.d(0,σ_μi^2 ), pour i = 1,…, N.
Chacune de ces modélisations se distingue par la forme que prend la composante déterministe. Les hypothèses nulles sont formulées de la manière suivante :
Modèle 1 : H_O: ρ=0
〖 H〗_1: ρ<0
Modèle 2 : H_O: ρ=0 et α_i=0 ∀i=1,…,N
H_1: ρ<0 et α_i∈R ∀i=1,…,N
Modèle 3 : H_O: ρ=0 et β_i=0 ∀i=1,…,N
〖 H〗_1: ρ<0 et β_i∈R ∀i=1,…,N
Cette structure d’hypothèse est très proche de celles de Dickey Fuller. La procédure de test de Levin, Lin et Chu s’effectue ensuite à l’aide de trois étapes mais aucune ne nécessite une technique propre aux données de panel. L’hypothèse d’indépendance des termes d’erreurs dans la dimension individuelle implique l’utilisation du théorème central limite pour obtenir les distributions asymptotiques (normales) des statistiques de tests. La seconde hypothèse, limite de ce test est l’homogénéité de la racine autorégressive. Elle implique soit un rejet ou non de l’hypothèse de racine unitaire pour l’ensemble des individus du panel.
Test de Im, Pesaran et Shin (2003)
Im, Pesaran et Shin (2003) furent les premiers à proposer un test de racine unitaire sur données de panel permettant de relâcher la contrainte imposée par Levin et Lin d’une homogénéité de la racine autorégressive. Toutefois, comme dans tous les tests de première génération l’hypothèse d’indépendance reste toujours valide. Lors d’une éventuelle autocorrélation des résidus, le modèle à tester s’écrit comme suit :
∆y_(i,t)=α_i+ρ_i ∆y_(i,t-1)+∑_(r=1)^(p_i)▒〖β_i γ_(i,t-r) 〗+ε_(i,t)
Où ε_(i,t) sont N.i.d(0,σ_εi^2 ), sous l’hypothèse nulle, le test IPS est toujours un test joint sachant qu’une nullité de ρ_i implique la nullité des effets individuels(α_i=-ρ_i γ_i avec γ_i ϵR).
H_0: ρ=0 et ∀i=1,…,N
H_1: ρ<0 et α_i=1,2…,N_1
ρ=0 ,∀i=N_1+1,N_1+2,…,N
Sous l’hypothèse alternative, les séries individuelles peuvent se répartir en deux sous-groupes. Plus précisément, N1 séries vont posséder une dynamique stationnaire alors que les autres admettront une racine unitaire. Pour effectuer ce test, IPS proposent deux statistiques. La première statistique standardisée Z_t bar (p;β) est centrée sur l’espérance de la distribution asymptotique de la statistique individuelle ADF et réduite par la variance de cette même distribution :
Z_tbar (p;β)=(√n [t_〖bar〗_NT-E(t_i T)])/√(V(t_i T) ) avec t_(〖bar〗_NT )=1/N ∑_(i=1)^N▒t_iT
Où t_iT désigne la statistique de Student associée à l’hypothèse nulle de racine unitaire (ρ_i=0) dans un modèle avec constante et les moments 〖E(t〗_iT)=-1.533 et V(t_iT )=0.706 correspondent à l’espérance et à la variance de la distribution asymptotique. Quand T→∞, cette statistique Z_t bar (p;β) converge séquentiellement vers une loi normale centrée réduite lorsque T et N tendent vers l’infini. Toutefois, la distribution peut poser problème dans des panels de petite taille T. c’est pour cette raison qu’IPS ont proposé une seconde statistique standardisée, notée W_tbar (p;β) qui possède l’avantage d’être beaucoup plus puissante à distance finie :
W_tbar (p;β)=(√n [t_〖bar〗_NT-N^(-1) ∑_(i=1)^N▒E(t_i T(p_i,0/ρ_i=0)) ])/(√(N^(-1) ) ∑_(i=1)^N▒V(T_it (p_i,0)) 〖/ρ〗_i=0)
Où les valeurs de E(t_i T(p_i,0/ρ_i=0)) ont été tabulées pour différents ordres de retards E(t_i T(p_i,0/ρ_i=0)) et différentes tailles T par les auteurs. Outre l’hypothèse d’indépendance des individus, ces tests souffrent de deux défauts : premièrement, la bonne identification du processus autorégressif est primordiale. Deuxièmement, il est difficile de conclure lors du rejet de l’hypothèse nulle. Cette dernière ne permet pas d’affirmer la stationnarité de toutes les séries individuelles mais uniquement l’existence d’au moins un individu ne possédant pas de racine unitaire dans la dynamique étudiée.
Test de cointégration de Pedroni
Pedroni (1995, 1997) a proposé divers tests visant à appréhender l’hypothèse nulle d’absence de cointégration intra-individuelle à la fois pour des panels homogènes et hétérogènes. Les valeurs critiques figurant dans ces travaux étant relatives à la présence d’un seul régresseur dans les relations de cointégration, Pedroni (1999, 2004) propose une extension au cas où les relations de cointégration comprennent plus de deux variables. Tout comme les tests de racine unitaire de Im, Pesaran et Shin (2003), les tests de Pedroni prennent en compte l’hétérogénéité par le biais de paramètres qui peuvent différer entre les individus. Ainsi, sous l’hypothèse alternative, il existe une relation de cointégration pour chaque individu, et les paramètres de cette relation de cointégration ne sont pas nécessairement les mêmes pour chacun des individus du panel. La prise en compte d\’une telle hétérogénéité constitue un avantage indéniable puisqu’en pratique, il est rare que les vecteurs de cointégration soient identiques d’un individu à l’autre du panel. Dans ces conditions, imposer de manière erronée une homogénéité des vecteurs de cointégration aurait pour conséquence un non rejet de l’hypothèse nulle d’absence de cointégration, alors même que les variables sont cointégrées (voir Pedroni, 1998).
Sur les sept tests proposés par Pedroni, quatre sont basés sur la dimension within (intra) et trois sur la dimension between (inter). Les deux catégories de tests reposent sur l’hypothèse nulle d’absence de cointégration: ρ_i=1 ∀i,ρ_i désignant le terme autorégressif des résidus estimés sous l’hypothèse alternative tels que :
ε ̂=ρ_i ε ̂_(it-1)+μ_it
La distinction entre les deux catégories de tests se situe au niveau de la spécification de l’hypothèse alternative :
. Pour les tests basés sur la dimension intra, l’hypothèse alternative s’écrit : ρ_i=ρ<1 ∀i
. Pour les tests basés sur la dimension inter, l’hypothèse alternative s’écrit : ρ_i=<1 ∀i
On constate ainsi que le test basé sur la dimension inter est plus général au sens où il autorise la présence d’hétérogénéité entre les individus sous l’hypothèse alternative.
Tests basés sur la dimension within (panel cointégration statistics) :
Test non paramétrique de type rapport de variance (panel υ -statistic)
Test non paramétrique du type de la statistique rho de Phillips-Perron (panel ρ –
Statistic)
Test non paramétrique du type de la statistique t de Phillips-Perron (panel t-statistic)
Test paramétrique du type de la statistique t de Dickey-Fuller Augmenté (panel t-statistic)
Tests bases sur la dimension between (group mean panel cointégration statistics):
Test non paramétrique du type de la statistique rho de Phillips-Perron (group ρ –
Statistic)
Test non paramétrique du type de la statistique t de Phillips-Perron (group t-statistic)
Test paramétrique du type de la statistique t de Dickey-Fuller Augmenté (group t-statistic).
Test de causalité au sens de Granger
Granger (196) a proposé les concepts de causalité et d’exogénéité. Il stipule que, la variable y_2t est la cause de y_1t, si la prédictibilité de y_1t est améliorée lorsque l’information relative à y_2t est incorporée dans l’analyse. Soit le modèle VAR (p) suivant pour lequel les variables y_1t et y_2t sont stationnaire :
[y_1t¦y_2t ]=[a_0¦b_0 ]+[(a_1^1)¦(a_1^2 ) (b_1^1)¦(b_1^2 )] [y_(1t-1)¦y_(2t-1) ]+[(a_2^1)¦(a_2^2 ) (b_2^1)¦(b_2^2 )] [y_(1t-2)¦y_(2t-2) ]+⋯+[(a_p^1)¦(a_p^2 ) (b_p^1)¦(b_p^2 )] [y_(1t-p)¦y_(2t-p) ]+[ε_1t¦ε_2t ] Le bloc de variables (y_(2t-1),y_(2t-2,…,) y_(2t-p) ) est considéré comme exogène par rapport au bloc (y_(1t-1),y_(1t-2,…,) y_(1t-p) ) si le fait de rajouter le bloc y_2t n’améliore pas significativement la détermination des variables〖 y〗_1t. Ceci consiste à effectuer un test de restriction sur les coefficients des variables y_2t de représentation VAR (Restricted VAR). La détermination du retard p est effectuée par les critères AIC ou SC. Soit :
y_2t ne cause pas y_1t si l’hypothèse ci-après est acceptée :
H_0=b_1^1=b_2^1=⋯=b_p^1=0
y_1t ne cause pas y_2t si l’hypothèse ci-après n’est pas acceptée :
H_0=a_1^1=a_2^1=⋯=a_p^1=0
Dans le cas où les deux hypothèses sont acceptées, on parle de de boucle rétroactive ou « feedback effect »
Ces tests peuvent être conduits à l’aide d’un test de Fisher classique de nullité des coefficients, équation par équation, ou directement par comparaison entre un modèle VAR contraint (UNIVAR) et le modèle VAR contraint (RVAR).
Méthode d’estimation du Modèle
Telle que notre panel est spécifié, la méthode d’estimation adéquate sera choisie après le test de spécification de Hausman. Car à priori l’on peut soit s’attendre à l’estimation within si l’effet fixe (EF) individuel est retenu car ce dernier est sans biais et de variance minimale, soit l’on peut s’attendre à l’estimation par les Moindres carrés généralisés (MCG) si l’effet individuel aléatoire (EA) est retenu, dans ce cas l’estimateur MCG est sans biais et de variance minimale. Toutefois l’estimateur within se confond avec l’estimateur MCG lorsque T tend vers l’infini
Test de Hausman
Le test de Hausman (1978) est un test de spécification des effets individuels. Il sert à discriminer les effets fixes et aléatoires. L’hypothèse testée concerne la corrélation entre les effets individuels et les variables explicatives ;
{█(H_O: E(α∖X)=0@H_1 E(α∖X)≠0)┤
Sous H0, le modèle peut être spécifié avec des effets individuels aléatoires et l’on doit retenir l’estimateur des MCG (estimateur BLUE). Sous l’hypothèse alternative H1, le modèle doit être spécifié avec des effets individuels fixes et l’on doit alors retenir l’estimateur within (estimateur non biaisé). La statistique du test de Hausman appliqué au test de la spécification des effets individuels est la suivante :
H=(β ̂_wihin-β ̂_MCG )^\’ [Var(β ̂_wihin-β ̂_MCG )]^(-1) (β ̂_wihin-β ̂_MCG )
Sous H0, la statistique H suit asymptotiquement un Chi-deux à K degrés de liberté
2.2. Présentation des données et des variables brutes
a. basse de données de l’étude
Dans le cadre de notre étude, le panel est composé de six pays de la CEMAC à savoir le Cameroun, la République Centrafricaine, la République du Congo, le Gabon, la Guinée Equatoriale et le Tchad.
La période de l’étude est fixée de 1985Q1 à 2016Q4. Elle se justifie par l’indisponibilité des données de certaines variables pour la Guinée Equatoriale. Toutes les données proviennent de la base des données de la Banque Mondiale appelée World Development Indicator (WDI, 2017) et ont été trimestrialisées par la méthode de Denton (recommandée par le FMI) pour bien lire les cycles des variables considérées.
Présentation des variables brutes
On se propose d’étudier le lien entre le cycle du crédit et le cycle de l’activité économique dans la CEMAC. Pour ce faire, les variables retenues dans le cadre de cette étude sont présentées de la manière suivante :
Le produit intérieur brut (PIB) en pourcentage est souvent utilisé par les différents auteurs dans la littérature pour étudier le cycle de l’activité économique. Il est considéré comme un indicateur de mesure le plus complet pour suivre l’activité économique dans la plupart des pays en développement, notamment africains. N\’Guessan (2010) et Pamphile M-M (2012) ont retenu la même variable lors de leurs études. Cependant, Agénor et al., (2000) supposent que l\’utilisation des données du PIB pour mesurer l\’activité économique dans un pays en développement peut causer des résultats fallacieux, du fait de la part importante de l‘agriculture dans la production globale qui est plus influencée par les conditions climatiques que par des facteurs conjoncturels. Pour Fayolle (1993), le produit intérieur brut est plus inerte parce qu\’il enregistre l\’effet de forces contra-cycliques, comme les dépenses publiques pouvant jouer le rôle de facteur stabilisateur. L’indice de production industrielle (IPI) éclaire le mieux les fluctuations économiques. Bien que l‘auteur affirme que la datation des points de retournement est très proche pour les deux séries, l‘indice de la production industrielle néglige la part du secteur des services qui possède un poids significatif dans les économies. De ce fait, l‘utilisation du PIB est privilégiée dans la quasi-totalité des études de conjoncture économique.
Graphique 3.1 : évolution du PIB des pays de la CEMAC de 1985Q1 à 2016Q4
Source : construit par l’auteur à partir des données de la banque mondiale. Eviews 9.0
Le crédit domestique accordé au secteur privé par les banques (CDSPB) un agrégat naturel le mieux adapté pour analyser le cycle du crédit puisqu’il constitue le lien entre l’épargne et l’investissement. Cette variable a été utilisée dans le même contexte par Rünstler et al., (2018).
Graphique 3.2 : évolution du crédit accordé au secteur privé par les banques dans la CEMAC de 1985Q1 à 2016Q4
Source : construit par l’auteur à partir des données de la banque mondiale. Eviews 9.0

Source : construit par l’auteur à partir des données de la banque mondiale. Eviews 9.0
En plus des variables d’intérêt, nous considérons d’autres variables de contrôle comme les pour notre étude.
L’introduction des variables de contrôle dans les régressions permet d’éviter d’éventuels biais dû à l’omission de variables ayant un effet sur le cycle de l’activité économique. Ces variables sont souvent citées dans la littérature économique. On a :
Le taux d’intérêt réel (TIR) en pourcentage du PIB n’est pas seulement prise en compte pour sa disponibilité dans la base choisie (WDI), mais également de son importance pour le comportement cyclique des économies et en particulier pour les pays en développement. Pour Agenor et al. (2000) c‘est le moyen à travers lequel ces pays peuvent se financer sur le marché international. Sanvi et al., (2006) l’ont utilisé dans le même contexte en Europe.
Graphique 3.3 : évolution du taux d’intérêt réel dans la CEMAC de 1985Q1 à 2016Q4

Source : construit par l’auteur à partir des données de la banque mondiale. Eviews 9.0
La masse monétaire (MM) en pourcentage du PIB permet de voir les changements cycliques et le comportement des variables réelles lorsque l’on fait varier son taux de croissance. Elle est introduite par Cooley et Hansen (1988) et Friedman et Schwartz (1975).
Graphique 3.4 : évolution de la masse monétaire dans la CEMAC de 1985Q1 à 2016Q4

Source : construit par l’auteur à partir des données de la banque mondiale. Eviews 9.0

CONCLUSION
Afin d’arriver aux résultats convaincants et robustes, le choix d’un modèle cohérent et claire est une condition sine qua non ; ceci implique un choix judicieux d’un ensemble d’éléments qui part du choix de type de modèles adéquats, du type de données, la base de données, de la méthodologie et la procédure d’estimation.
Tout au long de ce chapitre, nous avons pris le soin de présenter tous ces éléments que nous venons de citer. Dans le chapitre qui suit, nous allons procéder à l’exercice pratique pour vérifier nos hypothèses formulées ci-haut.