Les courants de la pensée économique




Cours gratuits pour réviser vos examens en économie














Les courants de la pensée
économique en schémas

Le courant libéral se compose de deux écoles
de pensée : l’école classique dont le fondateur
est Adam SMITH (1723-1790), le courant néocclassique
dont les fondateurs sont WALRAS (1834-1910) et MENGER (1840-1921).

C’est dans un contexte économique et social en pleine
transformation, marqué par la révolution industrielle
et par la philosophie des lumières qu’apparaît
au XVIIIième siècle le courant libéral
classique (SMITH, RICARDO, MALTHUS, SAY…).

L’école néoclassique : ce courant s’est développé
après 1870 jusqu’à nos jours avec l’ approche
microéconomie c’est à dire l’analyse des choix
des agents économiques notamment à travers
l’étude du comportement du producteur et du consommateur
considérés comme rationnels.
Les principaux fondements du courant libéral s’articulent
autour de trois points essentiels :

• L’individualisme : l’homme est un être rationnel
( homo oeconomicus) c’est à dire recherche la satisfaction
de ses intérêts. Le producteur recherche la
maximisation de son profit sous la contrainte des coûts,
il fait des choix rationnels ( calculs économiques).
Il choisit ce qui lui rapporte le plus dans l’utilisation
des facteurs de production : travail et capital pour produire.
Le consommateur cherche à maximiser ses besoins en
fonction du prix des biens et de son revenu. Il fait des
choix. Fait un calcul économique : sa préférence
pour tel ou tel produit va se faire en fonction de l’utilité
qu’il va en retirer et du coût qu’il va supporter
pour l’obtenir. Ici on retrouve l’approche micro-économique
qui s’intéresse aux choix individuels des agents
économiques. C’est la recherche de l’intérêt
individuel qui permet de réaliser l’intérêt
général.

• La liberté économique : Chaque individu
doit pouvoir exercer librement son activité économique
( liberté d’entreprendre, de travailler, d’échanger…
de se faire concurrence…).Ces libertés ne doivent
pas être entravées par l’intervention de l’Etat.

• Le rôle limité de l’Etat ( Etat gendarme)
: seul le Marché doit réguler l’économie,
l’Etat ne doit pas intervenir en économie car il
perturbe le bon fonctionnement du marché. Car seul
le marché permet d’atteindre naturellement l’équilibre
( le carré magique). C’est la "main invisible"
qui va coordonner tous les besoins individuels, qui va orienter
toutes les activités individuelles vers la satisfaction
de tous. Donc, c’est lui qui va déterminer l’équilibre
économique automatiquement.

• Voici quelques schémas qui expliquent le
fonctionnement du marché 🙁 ici l’exemple du marché
des biens et services).

Le marché : " c’est un merveilleux mécanisme
d’horlogerie qui, par le miracle du mouvement des prix,
transforme le chaos en ordre, la multitude des intérêts
particuliers en intérêt général"
( cf. D. Clerc conseiller à la rédaction d’alternatives
économiques)

Dans le modèle libéral, le marché régule
l’économie à condition que ce marché
soit de concurrence pure et parfaite ( c’est à dire
HAMLET : Homogénéité des produits,
Atomicité du marché, Mobilité des facteurs
de production, Libre Entrée des produits, Transparence
du marché). Condions purement idéales voire
virtuelles du marché.
C’est finalement le niveau des prix (flexibles) qui détermine
le niveau des quantités produites et consommées.
Le point de rencontre en l’offre et la demande représente
l’optimum. A ce prix d’équilibre il n’est plus possible
d’augmenter la satisfaction d’un individu sans détériorer
celle des autres. C’est donc la main invisible qui ajuste
les offres et les demandes et assure la satisfaction de
tous. Le marché s’autorégule selon la fameuse
loi de l’offre et la demande c’est à dire naturellement,
pas besoin de l’intervention de l’Etat. L’Etat crée
des rigidités qui empêchent le bon fonctionnement
du marché. Il en est de même pour tous les
marchés : marché du travail, marché
des capitaux, des changes…)
Gérard Fonouni

ACTUALITES

Dernières vidéos en ligne




Publié dans Non classé | Laisser un commentaire

Les remèdes à la crise

Aux grands maux, les grands remèdes….

Devant la gravité d’une crise des liquidités qui a enrayé les trois rouages de l’activité économique (Production-Répartition-Consommation), les gouvernements sont inquiets. Des milliards ont été débloqués et injectés dans l’économie (360 milliards d’euros pour l’Europe et 800 milliards de dollars pour les Etats-Unis) sans que pour autant ne disparaissent les risques de récession et de déflation. Après le séisme qui a déjà fortement ébranlé la sphère financière, sa réplique fragilise à présent l’économie réelle, et met en péril les secteurs de l’automobile et du bâtiment. Le chômage est de nouveau à la hausse, et les Etats, tous reconvertis à l’interventionnisme, espèrent la reprise pour 2010.

Mais deux années, et maints plans de relance, suffiront-ils pour sortir notre économie de ce cycle dépressif parti de la finance ?

La crise financière était prévisible mais seule son ampleur était réellement surprenante. Elle trouve son origine dans cette dérégulation de grande envergure des marchés financiers à la fin des années 80, qui a transformé le système financier international en un ensemble de mécanismes complexes, porteurs des germes de leur propre effondrement. Face à la crise, la réaction immédiate du gouvernement a été la bonne. Elle a permis d’éviter la faillite du système bancaire et par ricochet, a sauvé des pans entiers de notre économie. Mais au-delà de ces soins prodigués dans l’urgence, deux remèdes s’imposent aujourd’hui, pour sortir de la récession.

Le premier remède consiste en la mise en place d’une politique monétaire expansionniste dont l’objet serait d’accroître le volume des liquidités. La Banque Centrale Européenne pourrait ainsi, sous l’effet de la chute des prix des matières premières, pratiquer des taux d’intérêt proches de zéro. L’efficacité d’une telle politique tiendrait à la mise en place de nouvelles règles financières solides, étendues aux marchés dérivés, contrôlées et sanctionnées par les banques centrales. Toutefois, devant l’ampleur de cette crise systémique, le seul levier de la politique monétaire ne saurait suffire.

Aussi, un second remède, basé sur le levier de la politique budgétaire, est-il souhaitable. Il n’est pas acceptable que des usines ferment et que des salariés soient licenciés par milliers dans des secteurs clé de notre économie. Il incombe donc à l’Etat de venir au secours des secteurs gravement touchés au moyen d’une politique de relance de grande ampleur. A ce titre, un plan de relance évalué à 36 milliards d’euros sur deux ans, soit treize milliards d’euros par an, fait bien pâle figure, malgré une orientation ciblée sur l’investissement et sur les PME. Un tel plan ne privilégie véritablement que le rouage de la production et ne devrait produire ses effets que fin 2009.
Dans la conjoncture dégradée qui est la notre, ne faudrait-il pas alors un second plan de relance, élargi aux deux autres rouages de l’économie ?
S’il était mis en œuvre, le second plan gagnerait à repenser le mode de partage de la valeur ajoutée, aujourd’hui trop défavorable aux salariés. Un tel partage ne peut en revanche être efficient que si l’on allège la fiscalité des entreprises, proportionnellement aux augmentations de salaires qu’elles accordent. L’augmentation salariale ne fragiliserait alors en rien la compétitivité des entreprises qui pourraient ainsi augmenter les salaires sans avoir à supporter le coût de l’augmentation. Stimulée par une baisse globale de la fiscalité, la hausse généralisée des salaires relancerait la consommation via un mécanisme d’effet multiplicateur. La hausse de la demande profiterait donc à l’ensemble des acteurs économiques et le surcroît de consommation concourait ainsi à une augmentation substantielle des recettes budgétaires liées à la T.V.A. Les entreprises augmenteraient leurs marges sans modifier leurs prix du fait des carnets de commandes enfin remplis et sauveraient ainsi des centaines d’emplois.
Ce schéma vertueux ne sera cependant effectif que si l’Union Européenne rompt avec la frilosité qui a jusqu’alors caractérisé sa réaction.
Le plan de relance européen (200 milliards d’euros) reste insuffisant et l’Union peine à s’affranchir de toute logique bassement nationale. En 1929, le New Deal n’a été possible que par la constitution d’un budget fédéral américain et même si les Etats européens rechignent aujourd’hui, malgré la gravité de la crise, à se départir de leurs prérogatives budgétaires, il leur faudra en revenir à ce vieil adage « aux grands maux, les grands remèdes » et comprendre qu’une crise de grande ampleur implique une relance coordonnée de grande ampleur.
L’économie n’est pas une machine qui n’obéit qu’à des règles mécaniques. Restaurer les anticipations optimistes des agents implique un projet capable de restaurer la confiance en l’avenir en fédérant l’ensemble des politiques économiques et sociales à un niveau supranational. Cette ambition fait aujourd’hui défaut à l’Union européenne qui pourtant, forte d’une union monétaire solide, pourrait construire une organisation européenne des marchés financiers où la finance serait au service de l’économie réelle et non l’inverse.

Publié dans Non classé | Laisser un commentaire

Théorie des incitations

A l’époque d’Adam Smith, les discussions concernant l’effet de l’impôt sur l’incitation à travailler étaient déjà vives. La théorie des incitations actuelle a un objet plus spécifique : il s’agit de « l’étude des moyens employés pour inciter des agents, qui disposent d’une information privée, à la révéler ».

Prenons l’exemple d’un stade : on pourrait naïvement demander à chaque contribuable quel prix serait-il prêt à payer pour que ce stade soit construit, mais chaque agent aura tendance à minimiser sa future participation au financement (effet connu sous le nom de « passager clandestin », c’est une procédure manipulable). L’objet de la théorie des incitations consiste à chercher une procédure « non-manipulable », c’est-à-dire qui incite les agents à révéler sincèrement leurs préférences.

Les chercheurs ont tout d’abord tenté de trouver une procédure « non-manipulable » universelle, qu’on pourrait appliquer à tous les types de problèmes. Le célèbre théorème d’Arrow, qui montre l’impossibilité d’agréger des préférences individuelles, semblait conduire à un insuccès. De plus, un important théorème de Gibbard et Satterthwaite est venu confirmer cette intuition : dès qu’il y a au moins trois décisions possibles, et si les préférences des agents sont à priori quelconques, il n’existe aucune procédure universelle « non-manipulable ».

Mais il existe au moins deux façons de contourner le théorème de Gibbard et Satterthwaite :

– La première consiste à utiliser l’information dont on peut disposer sur les agents.

– La seconde exploite l’information dont les agents disposent les uns sur les autres.

En conclusion, si on dispose d’un peu plus d’informations que ne le suppose le théorème, il est possible de faire révéler les réelles préférences des agents. Les problèmes deviennent très complexes lorsqu’il s’agit de vote ou d’assurances. A quand une théorie générale de l’information ?

Publié dans Non classé | Laisser un commentaire

Théorie des anticipations adaptatives

Le principe général consiste à prévoir la valeur future d’une variable à partir de sa valeur présente et de l’erreur de prévision faite à la période passée. C’est la prise en compte de cette erreur (affectée d’un coefficient compris entre 0 et 1), qui est à l’origine du terme « adaptatif ». Ainsi, cette règle revient à établir des prévisions à partir d’une somme pondérée des valeurs passées de la variable, les coefficients de pondération décroissant de façon exponentielle au fur et à mesure que le passé s’éloigne.

Milton Friedman introduit donc le principe suivant lequel l’expérience va conduire les agents économiques à anticiper la hausse des prix. Cette prise en compte réduira l’impact à court terme de la hausse des quantités de monnaie sur la production et induira des effets inflationnistes. Il en résulte que la hausse des quantités de monnaie n’est pas le bon moyen de stimuler la croissance économique.

Pour Friedman, le seul moyen de maintenir l’effet positif de l’abondance monétaire est de progressivement réduire le taux d’augmentation de la masse monétaire pour le rapprocher de celui de l’augmentation de la production.

Publié dans Non classé | Laisser un commentaire

Théories du marché du travail

Avec la persistance d’un chômage à un niveau élevé, les économistes ont été amenés à rejeter l’hypothèse de parfaite flexibilité des salaires. De nouveaux modèles s’efforcent de rendre compte de la rigidité des salaires réels, ainsi que de son corollaire : un ajustement du marché du travail reposant davantage sur l’emploi que sur les salaires.

On peut différencier les rigidités endogènes du marché du travail (au sens où celles-ci sont liées au comportement même des agents économiques), des rigidités plus exogènes (qui relèvent plutôt de la législation ou de la règlementation : indemnisation du chômage, salaire minimum …).

Nous présenterons ici les rigidités endogènes.

Les rigidités endogènes :
Les nouvelles approches micro-économiques de la relation salariale montrent que le fonctionnement du marché du travail n’est pas nécessairement concurrentiel.

Le salaire d’efficience : Cette approche met l’accent sur le rôle des stratégies d’incitation dans le déroulement du contrat de travail. Elle permet d’expliquer la rigidité des salaires et peut aussi servir de fondement théorique à l’analyse du dualisme du marché du travail. L’hypothèse centrale est que la productivité de chaque salarié dépend de son effort, lequel croît avec le salaire versé. L’entreprise engagera un salarié supplémentaire tant que la productivité marginale reste supérieure au salaire réel par unité efficiente de travail. Le salaire optimum, dit « d’efficience », est alors tel que l’élasticité de l’effort par rapport au salaire est unitaire. Il se peut que le salaire réel optimal soit supérieur au salaire de réservation des chômeurs. Dans ce cas, ces derniers souhaiteraient travailler pour un salaire inférieur, mais les entreprises préfèrent ne pas les embaucher à ce salaire qui diminuerait la productivité des salariés déjà embauchés. Dans cette analyse, tout choc qui modifie la productivité du travail tend à modifier l’emploi sans changer le salaire réel optimal.

Les contrats implicites : L’incertitude portant sur l’environnement incite les agents à conclure des contrats susceptibles de les protéger contre les risques associés aux aléas de la conjoncture. Dans ces modèles, la fixation des salaires s’établit, entre employeurs et salariés, selon des contrats implicites de long terme. Les salariés, qui ont une aversion pour le risque, préfèrent s’assurer auprès des entreprises contre l’incertitude portant sur leurs revenus, par des contrats de long terme qui réduisent la sensibilité des salaires aux fluctuations de la demande. Dans les périodes de conjoncture favorable, les salariés reçoivent une salaire réel inférieur à leur productivité marginale, et inversement. Dès lors que l’aversion des entreprises pour le risque est plus faible que celle des salariés, les entreprises préfèrent ces contrats, car en moyenne, la valeur attribuée par les salariés à l’assurance ainsi fournie par les entreprises permettent à celles-ci de les rémunérer à un salaire plus bas.

Le dualisme du marché du travail : Cette segmentation oppose un secteur primaire, caractérisé par des salaires élevés, une stabilité de l’emploi, des bonnes conditions de travail et des perspectives de carrière, à un secteur secondaire, dans lequel les salaires sont plus faibles, le risque de chômage plus important et les promotions inexistantes. Le dualisme du marché du travail s’est accru à partir du milieu des années soixante-dix. D’une part, le chômage touche davantage les travailleurs les moins qualifiés, et d’autre part, le recours à des formes d’emploi précaire s’est alors fortement développé. Les modèles de marché dual expliquent à la fois le rationnement sur le marché de l’emploi primaire, et la possibilité de chômage pour les autres salariés. Le chômage serait la résultante de l’existence d’une quasi-rente salariale, que les salariés du secteur primaire peuvent s’approprier, soit par l’exercice d’un pouvoir syndical, soit par leur pouvoir « d’insider » dans le cadre de négociations salariales. L’ajustement global ne se fait pas au sein de l’autre secteur dit « secondaire », car la flexibilité du salaire est contrariée par un système d’indemnisations du chômage, une législation de salaire minimal et une rémunération fondée sur un salaire d’éfficience : l’équilibre du marché du travail n’est pas atteint.

Le modèle « insiders-outsiders » : Sans faire référence aux syndicats, cette analyse avance que les « insiders » (salariés du secteur primaire), disposent d’une rente de situation leurs permettant d’obtenir des salaires supérieurs sans que les « outsiders » (secteur secondaire ou chômeurs) puissent leurs faire concurrence. Cette imparfaite substituabilité tient aux coûts fixes liés au travail (coûts d’embauche, de formation et de licenciement). La priorité est alors accordée à ceux qui appartiennent déjà à l’entreprise, et ceux-ci obtiennent des salaires supérieurs à ceux qu’ils obtiendraient sur un marché du travail concurrentiel dans le cadre de contrats individuels.

Publié dans Non classé | Laisser un commentaire

Théorie des organisations

O.WILLIAMSON

Pour cet économiste, le critère déterminant pour communiquer efficacement et prendre des décisions stratégiques adaptées est la diversification de la production. Lorsqu’une entreprise produit une gamme limitée et homogène de biens et services, la forme d’organisation adaptée est la « U- form »: un groupe restreint, voire une seule personne, prend les décisions importantes, celles qui engagent l’avenir de l’entreprise, et contrôle les grandes fonctions de la firme (commerciale, finances-comptabilité, recherche-développement).

La structure étant simple, les coûts d’organisation sont limités. La spécialisation de l’entreprise lui permet de réaliser des économies d’échelle, et des économies d’apprentissage. Ford était une illustration presque caricaturale de cette « U-form », avec son véhicule « modèle T », ou encore Waterman avec ses stylos.

Face à cela, l’apparition de firmes aux productions diversifiées est caractérisée par la forme multidivisionnelle, la « M-form ». L’entreprise intègre différentes activités distinctes, plutôt que de donner naissance à d’autres entreprises. Cela permet de réduire les « coûts de transaction » engendrés par les échanges sur le marché. Chacune des grandes familles de produits est sous la responsabilité d’une division opérationnelle, mais les grandes décisions stratégiques sont du ressort de la direction générale, épaulée par un « staff » d’experts. L’entreprise peut ainsi s’adapter facilement aux évolutions de l’environnement. Certaines divisions opérationnelles peuvent être constituées en sociétés juridiquement indépendantes, contrôlées par une société « holding » qui joue la rôle de direction générale. La « maison mère » peut alors acheter ou vendre ces sociétés.

M. AOKI

L’économiste Japonais étudie la « structure informationnelle », c’est-à-dire la façon dont circule l’information et dont se prennent les décisions. Il oppose la firme A (comme américaine) à la firme J (comme Japonaise).

Dans la première, prédominerait une coordination verticale : l’information remonte la hiérarchie jusqu’aux dirigeants, qui la centralisent, contrôlent et décident.

Dans la seconde, la coordination serait surtout horizontale, et seules les informations à finalité stratégiques remontent (recherche-développement, gros investissements). Les autres problèmes sont traités à la base, sans délais.

En revanche, face à l’imprévu, la firme J est capable de réactions rapide. Par ailleurs, l’organisation étant plus souple, les postes de travail sont définis de façon moins stricte, et le personnel peut « tourner » plus facilement.

Le degré d’intégration de la firme J est moindre, d’où un recours important à la sous-traitance.Nous sommes loin de la « M-forme » (forme multidivisionnelle) de O.Williamson, au sein de laquelle l’entreprise intègre différentes activités distinctes plutôt que de donner naissance à plusieurs entreprises.

A.D.CHANDLER

Au sein de trois ouvrages majeurs (« Strategy and structure » 1962, « The visible hand » 1977 et « Scale and scope » 1990), Chandler présente, comme un historien, l’évolution de l’entreprise industrielle, considérant la firme davantage comme une institution que comme une simple organisation. Il montre la réalité de la firme moderne à travers l’étude des conditions de sa constitution et de ses transformations.

Les premiers écrits montrent l’importance des innovations organisationnelles dans le développement du système industriel, ainsi que la carctérisation de l’entreprise moderne comme une institution complexe, fondée sur une structure hiérarchique. Il distingue :

D’une part l’organisation fonctionnelle centralisée ou « forme U »: l’organisation est construite autour d’une séparation verticale entre les unités opérationnelles et la direction, entourée de départements fonctionnels. Elle repose sur le développement de la division du travail dans la fonction de gestion, par la création de départements spécialisés .
D’autre part l’organisation multidivisionnelle en centres de profit autonomes ou « forme M », qui lui succède, est l’aboutissement d’un long processus d’innovations organisationnelles. L’entreprise est décentralisée en « divisions autonomes », spécialisées par lignes de produits ou par régions. Chaque division a sa propre direction, sa structure fonctionnelle et fonctionne comme une « quasi-firme ». Il en résulte une plus grande flexibilité stratégique, la mise en oeuvre d’économies d’echelle et une bonne coordination des stades du processus de production par l’intégration verticale. (Relations stratégie-structure).
Son dernier ouvrage de 1990 élargit le champ d’observation à la Grande-Bretagne et à l’Allemagne, et insiste sur l’exploitation des économies d’échelle, de variété et de coûts de transaction. La firme est bien une institution complexe s’imposant par son efficience dynamique, à travers les métamorphoses de ses formes organisationnelles.

R.COASE

A l’origine de l’économie des coûts de transactions, on trouve un article célèbre de 1937 sur la  » nature de la firme ».

Coase y affirmera : « The distinguishing mark of the firm is the supersession of the price mechanism ». La question que pose l’auteur est la suivante: « Pourquoi, dans une économie de marché au sein de laquelle les prix sont sensés assurer la coordination de l’activité économique, des organisations, caractérisées par la suppression du mécanisme de prix, émergent-elles ? ».
Pour Coase, le marché et la firme sont des formes alternatives de coordination de la production. La raison pour laquelle il est avantageux de constituer une entreprise paraît être l’existence d’économie de « coûts de transactions ». Ces coûts témoignent d’une imperfection du marché.
L’économie des coûts de transaction s’inscrit dans un courant appelé « Nouvelle économie institutionnelle ». Cette école de pensée s’intéresse à l’ensemble des règles sociales, politiques et juridiques qui encadrent la production, l’échange et la distribution.

Ce courant de pensée privilégie l’étude des arrangements institutionnels, mis en place par les individus lorsque les contrats sont incomplets « ex-post ».

L’ objectif est de constituer une nouvelle science des organisations, sur la trace de O.Williamson et J.Commons.

H.MINTZBERG.

L’auteur estime que toute organisation, (de l’entreprise jusqu’aux églises), est caractérisée par la présence des mêmes éléments, mais qui sont combinés de façon différente selon les objectifs visés.

L’organisation est une coalition de sous-groupes, qui vont plus ou mois loin dans leur « abandon de souveraineté », en fonction des objectifs qu’ils estiment nécessaires d’atteindre.

En d’autres termes, alors que chez Williamson, la forme organisationnelle est déterminée par des facteurs extérieurs, elle résulte chez Mintzberg des groupes de participants eux-mêmes. Il est amené à distinguer cinq grands types d’organisations, selon l’élément dominant au sein de l’organisation:

– La structure simple est dominée par le « noyau stratégique », qui est l’instance qui prend les décisions d’investissement et d’orientation productive. Le noyau se résume souvent à une personne, qui règne alors sans partage.

– La bureaucratie machinique est dominée par la technostructure, qui choisit les solutions techniques et réalise les investissements correspondants. Le tâches sont standardisées, l’organisation routinière et la production de masse. L’ entreprise survit et se développe dans la mesure où elle parvient à réduire ses coûts de production. D’où la domination des ingénieurs et des techniciens.

– La bureaucratie professionnelle est dominée par le « coeur opérationnel », qui réalise la production. Les processus de décision sont largement décentralisés.

– La structure divisionnelle est dominée par la « composante gestionnaire, donc l’ensemble de ceux qui collectent l’information. Ce type d’entreprise ne peut fonctionner correctement que si les tâches sont bien coordonnées.

– L’adhocratie : Le « personnel logistique » est dominant, qui assure les tâches de communication interne et de relation avec l’environnement. Ces entreprises, généralement de petite taille, sont peu hiérarchisées, reposent « plus sur l’adhésion des participants aux objectifs communs que sur des rapports d’autorité explicites ».

Publié dans Non classé | Laisser un commentaire

L.R.Klein

Prix Nobel 1980, L.R.Klein renouvelle l’analyse macro-économique, et grâce à ses modèles, il cherche à prévoir à la fois les fluctuations de l’économie et les effets des mesures de politique économique. Pour son premier modèle, Klein regroupe d’une part les avancées les plus récentes en économétrie et en traitement automatisé des données, et d’autre part la présentation, sous la forme d’un schéma IS/LM, de la pensée de Keynes, proposée par John Hicks (Prix Nobel 1972).

Ces recherches, menées au début des années cinquante, aboutissent à un modèle de 25 équations décrivant l’économie américaine, et dans lequel la demande y détermine le niveau de revenu (Modèle de Klein-Goldberger).

Dans ses travaux, Klein combine une approche macro-économique Keynésienne à une démarche inter-industrielle inspirée par Léontief (Prix Nobel 1973). On peut relever trois projets principaux dans sa carrière de chercheur :

– Le premier visait à construire un modèle détaillé de l’économie américaine, et permet de prévoir l’évolution de la conjuncture économique.

– Un modèle de la Warton school, qui permet d’analyser les fluctuations de la production nationale, des exportations, de l’investissement ou de la consommation.

– Le troisième modèle s’appelle LINK : Il s’agit d’un modèle international qui relie les modèles économétriques de différents pays, afin d’étudier la diffusion des fluctuations économiques entre ceux-ci et de faire des prévisions sur les mouvements de capitaux et de biens.

LINK permit le développement de nombreux travaux théoriques et empiriques. Ses publications ont contribué à faire avancer plusieurs questions dans le domaine de l’économétrie, comme l’introduction, dans les modèles, de variables explicatives retardées (décalées dans le temps), ou encore la multi-colinéarité (existence d’une relation linéaire entre certaines variables explicatives du modèle).

Publié dans Non classé | Laisser un commentaire

Règle d’or

En matière de théorie de la croissance, la règle d’or consiste en une série de paramètres qui caractérisent une économie de façon que la consommation par tête, dans ses états semi-stationnaires, soit la plus grande possible. Mais comme les biens consommés doivent être produits, et comme la production nécessite des investissements, (donc de l’épargne), le problème que la règle d’or cherche à résoudre est celui du partage optimal entre consommation et épargne à chaque période.

Dans le modèle de Solow, la règle d’or consiste à déterminer le taux d’épargne associé au capital par tête k qui permet la plus grande consommation par tête à chaque instant.

Ce taux d’épargne est tel qu’il conduit à une formation de capital dont la productivité marginale est égale au taux de croissance de l’économie. La règle d’or s’écrit alors :

Productivité marginale du capital = Taux de croissance de l’économie

Si on suppose que le taux d’intérêt réel est donné par la productivité marginale du capital, la règle d’or devient :

Taux d’intérêt réel= Taux de croissance de l’économie

Dans le modèle de Solow, la règle d’or s’énonce comme suit :

« La consommation par tête en régime semi-stationnaire est maximale lorsque le capital par tête est tel que la productivité marginale du capital est égale au taux de croissance de l’économie ».

Publié dans Non classé | Laisser un commentaire

Théories de la finance

Ces théories portent sur les échanges de titres entre agents économiques, échanges nécessaires car il convient de financer l’activité économique. Ces titres deviennent eux-mêmes l’objet de transactions. Parmi les titres en circulation, il y a évidemment la monnaie, qui est formée de créances sur le système bancaire, garanties par l’Etat.

Cependant, les titres qui intéressent particulièrement la théorie de la finance sont essentiellement les obligations, émises par les entreprises et l’Etat, et les actions, émises par les entreprises.

Les premières sont porteuses d’un intérêt, tandis que les secondes sont des droits de propriété sur les entreprises, dont la rémunération prend souvent la forme de dividendes.

A partir des années soixante-dix, sont venues s’ajouter d’autres formes de titres, dont les caractéristiques sont d’être « à terme » et de faire l’objet de transactions.

Dans les années quatre-vingt, on a vu se multiplier ces titres, qui constituent des paris sur l’évolution future de toutes sorte de variables ou d’indicateurs économiques : taux d’intérêt, taux de change, indicateurs boursiers …

On appelle usuellement « marchés financiers » l’ensemble des transactions qui portent sur des titres, ainsi que le résultat de celles-ci.

On peut distinguer trois types d’interventions sur ces marchés :

  • Ceux qui empruntent des fonds pour financer leur activité et ceux qui les avancent.
  • Ceux qui cherchent à se prémunir contre les fluctuations de l’activité économique, et qui utilisent les divers types de titres un peu à la manière d’une assurance, pour en obtenir un rendement « normal » avec un risque acceptabble.
  • Ceux qui, au contraire, cherchent à faire des gains importants sur quelques « coups » à haut risque.

Les choix de l’agent économique en ce qui concerne les divers types de titre disponibles est un domaine couvert par la « Théorie du choix de portefeuille« , où l’accent est mis sur les gains que celui-ci peut obtenir en prenant un risque raisonnable.

Cette théorie accorde beaucoup d’importance à l’hypothèse de non-arbitrage, selon laquelle toute situation où il serait possible de faire un gain sans risquer une perte ne peut subsister, car les investisseurs sur le marché financier les font disparaître par leurs arbitrages.

Cette théorie du choix de portefeuille est au coeur de la théorie de la finance et a de nombreuses conséquences sur le prix des portefeuilles.

Elle peut conduire à des calculs d’une grande complexité, qui font intervenir à la fois le gain attendu et le risque attaché à chaque titre ( domaine des mathématiques financières), les gains et les risques étant supposés connus des investisseurs.

Un des moteurs essentiels des échanges tient ici au fait que les agents n’ont pas la même « aversion pour le risque ».

La situation change radicalement si on tient compte de l’existence de « l’incertitude » : il n’existe alors plus de base sérieuse pour un calcul de probabilités, et il devient possible de faire des gains et des pertes de type spéculatif, le facteur « chance » étant alors déterminant.

La tendance permanente de cette théorie est de se ramener au cas « risqué », mais probabilisable, où les éventualités sont décrites avec une relative précision.

Publié dans Non classé | Laisser un commentaire

Théorie du monopole

Une entreprise est en situation de monopole si elle est seule à offrir un bien ou un service.

L’existence de telles entreprises dépend du cadre institutionnel dans lequel elles s’inscrivent, c’est-à-dire de l’ensemble des lois et des règlements qui organisent les relations économiques. Par exemple, l’Etat peut souhaiter protéger une industrie naissante, ou ériger en monopole une entreprise dont les coûts fixes sont très lourds, en raison de rendements d’echelle croissants.

Cependant, le degré de substituabilité des biens ou des services fait qu’il est parfois difficile de trouver un seuil précis à partir duquel on peut avancer qu’il y a monopole : même pour le transport par rail, l’avion ou la route peut constituer un substitut.

Les modèles de concurrence monopolistique cherchent à prendre en compte toutes les situations, y compris celle de l’épicier-monopoleur qui est seul dans son village.

Le modèle de base de la théorie du monopole se situe dans un cadre d’équilibre partiel, où il n’y a qu’un seul bien (ce qui exclut les substituts). L’entreprise, évoluant dans le cadre d’une concurrence parfaite, connaît la fonction de demande qui s’adresse à elle. Le monopole est caractérisé par sa fonction de coût, et le but du modèle est de déterminer l’offre pour laquelle son profit est maximal..

Le monopoleur sait que toute augmentation de l’offre de biens est accompagnée d’une baisse de prix, puisque la fonction de demande est supposée décroissante. Le modèle montre que l’entreprise augmente son offre jusqu’à ce que sa recette marginale soit égale à son coût marginal, autrement dit jusqu’au moment où ce que lui rapporte la dernière unité produite est égal à ce qu’il en coûte pour la produire : son profit est alors maximal.

Cependant, et sous ces hypothèses, le choix du monopole ne conduit pas à une affectation des ressources qui soit un optimum de Pareto, ce qui ne signifie pas qu’il n’est pas efficient, au sens de la meilleure affectation des ressouces à un moment donné. On peut alors mettre au point un système de prix discriminants, tels que ceux que pratiquent les compagnies aériennes lorsqu’elles font des promotions en imposant des dates de départ.

Le rôle des monopoles soulève la question du rôle de l’Etat. Si on estime que la production est indispensable à la collectivité, l’Etat peut subventionner le monopole dans le cas où le coût marginal est décroissant ou bien si les coûts fixes sont trop lourds. Cela soulève le problème du financement de la subvention, qui relève de la répartition (fiscalité, budget).

Publié dans Non classé | Laisser un commentaire