télécharger 405.13 Kb.
|
L’analyse du lambda de Wilks montre que les deux sous-ensembles sont distincts avec une probabilité inférieure à 1 pour 1000. Rappelons que la valeur critique du khi2 pour 6 degrés de liberté est de 22,5 à la probabilité de 1 pour mille. De même, on considère que le lambda de Wilks montre l’existence de différences entre deux groupes s’il est inférieur ou égal à 0,9.Tableau 12 Analyse discriminante : 2
Les tableaux précédents montrent encore une fois que services informatiques et logiciels sont deux secteurs différents. Quels que soient les champs choisis, les écarts entre les deux ensembles sont significatifs. Nous pouvons préciser que les résultats de l’analyse discriminante au niveau de chaque entreprise montrent qu’aucune entreprise n’est mal placée.9 Nous pouvons en conclure que chaque sous-ensemble est caractérisé par un régime de concurrence spécifique. Nous en déduisons qu’ils définissent des secteurs différents. Les sociétés de service (SSCI) ont parfois essayé d’industrialiser les développements réalisés pour les clients. Sauf exception ou sauf sur des niches, elles ont abandonné cette double activité (services et logiciels). Les rares sociétés qui ont réussi se sont transformées en éditeurs de logiciels, qui ont pu garder une activité de service auprès de leurs propres produits logiciels. La courte histoire de l’industrie du logiciel montre assez clairement qu’un processus de spécialisation s’est mis très rapidement en œuvre dans l’activité logiciel. Aujourd’hui, l’activité d’édition de produits logiciels (progiciels) a entraîné la naissance d’un nouveau sous-secteur avec des caractéristiques très différentes de celui des services informatiques, même si quelques sociétés de service maintiennent des activités d’éditeur et si les éditeurs ont souvent des activités de service (par exemple 47% de services pour SAP en 1998 mais ce chiffre inclut les contrats de maintenance) en dehors des firmes présentes uniquement sur le marché de la micro-informatique (par exemple 0% de services pour Adobe Systems). En fait, les éditeurs travaillant pour les « grands systèmes » proposent des services associés à leurs logiciels et à leurs logiciels seulement alors que ceux travaillant pour l’informatique personnelle ne proposent pas de services associés. Aujourd’hui, logiciels et services sont deux secteurs distincts avec une très faible intersection (pour utiliser une terminologie ensembliste). Ayant construit notre champ empirique, l’industrie du logiciel, nous pouvons maintenant nous intéresser aux économies d’échelle et au pouvoir de marché dans cette industrie. CHAPITRE 3 ECONOMIES D’ECHELLE DANS L’INDUSTRIE DU LOGICIEL L’objectif de ce chapitre est d’essayer de mesurer les économies d’échelle dans l’industrie du logiciel. Les résultats obtenus serviront à développer, au chapitre suivant, une méthode d’analyse du pouvoir de marché dans cette industrie. On imagine que des économies d’échelle existent dans l’industrie du logiciel car certains coûts apparaissent comme fixes tels les dépenses de R&D et les coûts de marketing et publicité. De même les coûts de reproduction, négligeables, renforcent ces économies d’échelle. Un parallèle semble possible avec la télévision. Bourreau, Gensollen et Peranit (2002) ont montré que dans le cas français de Canal+, les charges augmentaient avec l’audience et que la firme n’avait pas bénéficié d’économies d’échelle. Mais il s’agit là d’une entreprise qui n’a sûrement pas fonctionné à sa frontière de coûts. Par contre, la régression des coûts sur le nombre d’abonnés des 10 chaînes câblées en 1995 montre des économies d’échelle faibles mais existantes10. On suppose que dans le cas du logiciel, on trouvera aussi des économies d’échelle mais qui n’atteindront pas le niveau attendu des simplifications théoriques en vogue. En fait, il faut construire la notion d’économies d’échelle propres aux secteurs des biens immatériels et peut-être même spécifiques au secteur des logiciels. Nous émettons l’hypothèse que les économies d’échelle sont impulsées par la demande et que l’on peut parler d’instant scalability pour désigner ce type d’économies d’échelle. Des conclusions solides nécessitent une étude sectorielle sur moyenne période et sur un échantillon significatif de l’industrie. C’est cette étude que nous proposons de mener dans ce chapitre, sachant qu’aucune publication n’existe, à notre connaissance, sur l’industrie du logiciel11, contrairement à certains autres secteurs comme les banques (Benson & alii, 1982), les assurances (Katrishen & Scordis, 1998), les industries agro-alimentaires (MacDonald & Ollinger, 2000), les services de réseaux (Gathon, 1987), les transports (Cowie & Riddington, 1996 ; Gagnepain, 1998), les services financiers (Leclerc et alii, 1999), etc. 1) Méthodologie utilisée Les évaluations des économies d’échelle font l’objet d’une littérature considérable. Nous présentons une synthèse des travaux récents, utiles quant à notre besoin/usage. Des économies d’échelle existent si (et seulement si) le coût total moyen d’une entreprise augmente moins vite que son output. Une représentation cohérente des économies d’échelle est donnée par la fonction de production néo-classique de type : F(Yi, Xj) où les Yi sont les outputs et les Xj les inputs. Sous certaines conditions (Christensen & alii, 1973), le processus de production peut être décrit de manière totalement équivalente par une fonction de coût dite duale : C = G(Yi, Pk) où C représente le coût total et Pk les prix des Xj inputs (k = j). La fonction de coût est alors concave et homogène de degré 1 par rapport aux coûts. Les hypothèses pour que cette dualité soit atteinte sont que les prix des facteurs de production soient exogènes pour les firmes en question et qu’elles cherchent à minimiser leurs coûts. En d’autres termes, qu’elles fonctionnent dans un régime concurrentiel au sens traditionnel du terme. Cela semble a priori le cas pour l’industrie du logiciel. Les fonctions de coûts possibles tournent autour de la Cobb-Douglas et de la fonction Translog promue par Christensen & alii12. Elles sont de la forme suivante : - Cobb-Douglas : lnC = a + b lnY + A + B + e avec A représentant des coûts des inputs et B représentant des variables de contrôles et e un terme d’erreur aléatoire. - Translog : lnC = a + b lnY + c (lnY)2 + A + B + e avec A représentant les coûts des inputs traités aussi en forme quadratique incluant les produits des variables deux à deux et B représentant des variables de contrôle. Ces dernières sont souvent omises car le nombre total de variables explicatives devient vite très élevé. Nous ne choisissons pas la fonction Translog mais la fonction Cobb-Douglas. Les raisons sont multiples. La première est le principe d’économicité13. La seconde est que les avantages théoriques de la Translog (« these functions provide a local second-order approximation of any production frontier. The resulting frontiers permit a greater variety of substitution and transformation patterns than frontier based on constant elasticities of substitution and transformation », Christensen & alii, p. 28) peuvent être annulés par des problèmes pratiques car le grand nombre de variables impliquées rend évidemment les estimations des coefficients moins précises. De plus, les corrélations entre les variables et leurs carrés sont fortes ce qui peut réduire la qualité des régressions. De même, de sévères multicolinéarités vont affecter les variables interactives comme le précisent Webster & Scott (1996). Enfin, il faut noter la difficulté d’interprétation des nombreux coefficients calculés par la « machinerie » informatique. D’autres critiques sont également formulées par Clark & Speaker (1994) : l’intérêt de la Translog est qu’elle permet d’évaluer des cas d’output multiples, mais elle n’est pas définie au point zéro ce qui entraîne des problèmes d’échantillonnage (il faut enlever les firmes qui ont une valeur zéro pour un des outputs) ou bien trouver d’autres arrangements qui ne peuvent qu’affaiblir la validité des résultats. Une autre critique semble déterminante à notre vue : la Translog, dans sa version canonique, demande d’évaluer pour chaque output les prix du travail et du capital. Dans la plupart des cas, ces données ne sont pas accessibles et sont allouées de manière plus ou moins arbitraire … dont la plus simple est une allocation proportionnelle à l’output considéré ce qui annule l’intérêt de la forme Translog. En fin de compte, ceci induit le résultat suivant : les écarts entre les estimations d’économies d’échelle fondées sur la fonction Translog et celles fondées sur la Cobb-Douglas sont faibles. McNutlty a comparé les deux méthodes sur un échantillon de 130 banques commerciales américaines sur 5 ans (de 1985 à 1989) ainsi que le pooling de ces 5 années. Il teste aussi le fait d’inclure ou non les coûts d’intérêts dans les coûts totaux. Il obtient 12 résultats d’estimation des économies d’échelle pour chaque méthode. 11 calculs donnent des écarts inférieurs à 1% et le douzième donne un écart égal à 6%. Le défaut théorique de la forme Cobb-Douglas est qu’elle impose une monotonie des élasticités alors que la forme Translog accepte des variations d’élasticités. Or on se souvient que sur un petit intervalle toute fonction continue peut être approximée par une droite. Une façon de solutionner empiriquement la rigidité de la fonction Cobb-Douglas est de découper notre échantillon en grandes, moyennes et petites entreprises. C’est de toute façon ce que font les utilisateurs de la fonction Translog pour évaluer les économies d’échelle en fonction de la taille des entreprises. En définitive, nous suivrons donc les traces de Cowie & Riddington (1996) qui, après avoir testé une fonction Translog (« After some experimentation with the translog, we came to the conclusion that there was no evidence that the higher order terms were significant », p. 1030), évaluent une fonction de type Cobb-Douglas plus maîtrisable par l’économiste. Nous sommes arrivés au même résultat après avoir effectué la même démarche. 2) Les spécifications du modèle et les données Les variables du modèle sont les suivantes : le coût total d’opération, la marge brute, le rapport marge brute / emploi ainsi que le pourcentage du chiffre d’affaires réalisé dans la vente de logiciel. Ln(Ct) = a + bLn(Mbt) + cTauxlogiciel + dMbt/emploi + e Les éditeurs de logiciel ont deux outputs distincts, la vente de licence et de contrats de maintenance et la vente de services autour de ces logiciels. La ventilation du chiffre d’affaires total entre ces deux activités est très souvent renseignée dans les sources officielles (rapport annuel ou form 10k). Mais on ne dispose que très rarement d’informations concernant la ventilation du personnel entre ces deux activités. Il est dans ce cas illusoire de vouloir inférer une fonction de coût de ces deux activités. Il s’ensuit que nous ne considérons qu’un seul output mesuré par la marge brute14. Mais nous contrôlons l’output-mix des éditeurs de logiciel par la variable Tauxlogiciel qui mesure la part de la vente de licences et de contrats de maintenance dans le chiffre d’affaire des firmes. Le coût du capital est presque par définition impossible à évaluer. Dans le cas de l’industrie du logiciel, les investissements fixes sont très faibles car ils sont constitués de micro-ordinateurs amortis sur trois ans ou moins. Quant au coût du travail, il nous semble illusoire d’essayer de l’évaluer par des indices de prix de la main-d’œuvre qualifiée, les firmes étant très internationalisées et possédant des activités dans de nombreux pays. Nous incluons une variable de contrôle de ce coût de main-d’œuvre par le ratio marge brute/ emploi. Nous avons testé la nationalité comme variable explicative mais les coefficients sont toujours non significatifs. De même, le taux d’exportation pouvait a priori être une variable explicative des coûts. Ici encore les coefficients restent toujours non significatifs. 3) Les résultats Nous évaluerons le modèle sur les dix années allant de 1994 à 2003. Pour bénéficier d’une meilleure précision, nous évaluerons des bi-années. Comme nous venons de l’énoncer, les économies d’échelle dans le logiciel sont impulsées par la demande. Dans ces conditions, elles peuvent varier d’année en année. Aussi, prenons-nous une bi-année pour amortir les écarts dus au fait que les entreprises ont des années fiscales différentes et peuvent être alors confrontées à des demandes différentes pour la même année de référence (tableaux 13 et 14). Tableau 13 Résultats des estimations par bi-années (1)
Valeur de t entre parenthèses Tableau 14 Résultats des estimations par bi-années (2)
Valeur de t entre parenthèses Le coefficient de Mbt est toujours très significatif (inférieur à 1 pour 1000). Le coefficient de Mbt/emploi est toujours significatif à 1% sauf en 2001/2000 alors que le coefficient de Tauxlogiciel n’est significatif que sur deux tests. Le coefficient b étant inférieur à 1, des économies d’échelle existent. Etant donnée la fonction choisie, elles sont simplement égales à l’inverse du coefficient b. Soit : SCE (2003/2002) = 1,159 SCE (2001/2000) = 1,157 SCE (1999/1998) = 1,151 SCE (1997/1996) = 1,047 SCE (1995/1994) = 1,030 On remarque que les économies d’échelle suivent une pente croissante avec les années. Une hypothèse à tester est celle de la dépendance des économies d’échelle vis-à-vis de la taille des entreprises, ici mesurée par le chiffre d’affaires (des résultats similaires sont obtenus en utilisant la marge brute). On a choisi de mesurer les économies d’échelle par quartile comme de tradition dans la littérature. C’est évidemment la méthode du data pooling qui est choisie, sachant que le premier quartile comprend principalement des années 2003, 2002 et 2001 et le dernier quartile les années 1994, 1995 et 1996 (tableau 15). Tableau 15 Résultats des estimations par quartiles (sur Ca)
Valeur de t entre parenthèses Les économies d’échelle par classe d’entreprises montrent des résultats complexes. Les petites entreprises ne bénéficient pas d’économies d’échelle mais les grandes entreprises ne sont pas celles qui bénéficient le plus des économies d’échelle. Ce résultat est confirmé par une segmentation tripartite avec un coefficient b valant 0,865 sur le premier tiers. Notons enfin qu’une segmentation par quartile sur la marge brute donne un coefficient b de 0,873 pour le premier quartile. Une segmentation par décile sur la marge brute donne un coefficient b de 0,864 sur le premier décile. Ln(Ct) = 1,304 + 0,864Ln(Mbt) – 0,0002mbt/emploi – 0,008tauxlogiciel (3,871) (18,165) (- 1,017) (- 3,769) R2 = 0,976; F = 352 ; (Valeur de t entre parenthèses). Les économies d’échelle pour les grandes entreprises sont de 1,16 (1/0,864). Les économies d’échelle existent dans l’industrie du logiciel. Elles sont très loin des fameuses radical scale economies présentées par Mckensie & Lee (2002). Elles sont aussi très loin des modèles à la Shy (2001) où les coûts sont considérés comme fixes au sens propre du terme (une constante). En réalité, ces coûts dits fixes ne sont pas si fixes que cela car ils varient plus ou moins proportionnellement avec le chiffre d’affaires (un peu moins puisque des économies d’échelle existent). Une hypothèse développée par Bourreau & alii (op. cit.) concernant l’industrie des media est que la production est essentiellement une production de la demande car ces biens sont des biens d’expérience. On retrouve l’idée que si des coûts fixes existent au niveau de la conception, ils deviennent plus faibles au niveau de la mise en contact avec le marché car il faut induire/produire la demande et donc il en résulte des coûts de ventes qui sont eux, assez proportionnels aux ventes. Ce travail sur les économies d’échelle va nous servir à développer une méthode pour analyser le pouvoir de marché dans l’industrie du logiciel. CHAPITRE 4 introduction à l’analyse du pouvoir de marché dans l’industrie du logiciel Introduction La notion de pouvoir de marché est centrale en économie industrielle (Schmalensee & Willig, 1989 ; Scherer & Ross, 1990 ; Martin, 1993 ; Tirole, 1995) mais elle est aussi la plus controversée. La question est de savoir et de vérifier si la ou les firmes en position dominante doivent cette position à une meilleure efficacité ou à l’exploitation de leur pouvoir de marché. L’objet de ce chapitre est de revenir sur ces questions à partir d’une analyse de la situation existante dans l’industrie du logiciel et de la position particulière de Microsoft. Il s’agira d’essayer de répondre à la question de savoir si Microsoft bénéficie d’une position dominante. Ce chapitre comprendra quatre parties. Un premier paragraphe introduira la problématique. Les second et troisième présenteront les données et les analyses statistiques tandis que le quatrième ouvrira une discussion sur les résultats. 1- Problématique du pouvoir de marché L’identification d’un pouvoir de marché est évidemment un pré-requis à toute action antitrust. Le pouvoir de marché n’est pas condamnable en soi mais il ouvre à une analyse des pratiques anticoncurrentielles. Car, sans pouvoir de marché, pas de pratiques anticoncurrentielles possibles. On comprend que ce thème soit stratégique dans tout cas antitrust. Mais, le pouvoir de marché ne peut être mesuré directement. En revanche, il peut être appréhendé indirectement à partir des analyses de la concentration, des conditions d’entrée ou de la rentabilité. L’approche classique du pouvoir de marché est double : D’un côté, la mesure des parts de marché donne une bonne indication d’un éventuel pouvoir de marché. Pour cela, il faut identifier le relevant market. Ce point est évidemment très conflictuel entre les parties en présence. Par exemple, dans le cas U. S. vs. Microsoft, le gouvernement considérait que Microsoft était en situation de monopole sur le marché des micro-ordinateurs basés sur des plate-formes Intel car la firme détenait 95% de parts de marché (Gilbert & Katz, 2001). Microsoft, par la voix de Schmalensee (Schmalensee, 1999), défendit l’idée que la concurrence dans le marché de la micro-informatique était une concurrence entre « plate-formes » et non entre systèmes d’exploitation, la notion de plate-forme allant jusqu’au middleware, ce dernier incluant les browser Internet, Java, etc. Schmalensee indiquait que Windows subissait de plus la concurrence potentielle des plate-formes actuelles et futures. Ceci expliquait pourquoi Microsoft avait été amené à lier (tying) système d’exploitation et browser15. Il indiquait que la concurrence est très intense dans le secteur des logiciels pour micro-ordinateurs et que les positions sont fragiles. Les exemples cités étaient ceux du traitement de texte, des bases de données et des tableurs pour micro-ordinateurs. Il précisait aussi que les marchés bénéficiant d’effets de réseaux peuvent être des marchés tout ou rien mais que les monopoles induits sont temporaires16. Il précisait enfin que la concurrence faite à Netscape n’est pas anti-concurrentielle et qu’elle a bénéficié aux consommateurs (baisse des prix). Elle permet à Netscape de vivre (Netscape est un concurrent fort de Microsoft). Le thème connexe des conditions d’entrée (une firme élève-t-elle des barrières à l’entrée sur son segment de marché ?) subit les mêmes difficultés d’analyse que celui de la concentration car il faut là encore définir avant toute analyse empirique le marché considéré (relevant market). D’un autre côté, les travaux pionniers d’économie industrielle ont aussi développé une approche en termes d’écarts entre prix et coûts17. Une entreprise pouvant élever sur moyen terme ses prix au-dessus de ses coûts marginaux (ou ses coûts moyens) bénéficie d’un pouvoir de marché. Ce pouvoir de marché doit se retrouver au niveau du profit. Les problèmes de mesure sont nombreux, à commencer par ceux de la mesure des coûts. Ces problèmes sont encore plus aigus dans le cas des logiciels. En effet, les coûts de (re)production matérielle de ces biens immatériels sont aujourd’hui proches de zéro18. Il ne s’ensuit pas que les coûts marginaux de vente de ces biens soient proches de zéro. Il apparaît qu’ils sont plus difficiles à identifier encore que les coûts marginaux de vente des biens matériels. Il faut imaginer de se passer de ces mesures dans le cas d’industries à économies d’échelle comme l’industrie du logiciel. Les travaux récents prennent acte de cette difficulté, voire impossibilité, à mesurer la marge prix-coûts. Comme le présente Bresnahan (1989) dans la synthèse qu’il a réalisée, la marge prix-coûts est aujourd’hui, si elle est utilisée comme mesure de pouvoir de marché, considérée a contrario, comme une variable à estimer économétriquement et non pas comme une donnée mesurable. Les analyses concernent alors des industries particulières et elles impliquent en général une spécification des conditions de la concurrence. C’est ce que l’on appelle modèles structurels dans la littérature et Bresnahan (1989) précise « An advantage of the use of structural econometric models and explicit theories of industry equilibrium is that the class of models the data are allowed to treat is made explicit » (p. 1031). Ces modèles demandent de rassembler beaucoup de données car il faut en général être capable d’évaluer les courbes d’offre, de demande ainsi que d’émettre des hypothèses comportementales. Des approches nécessitant moins de données ont été développées, les reduced form methods (modèles réduits). Dans un travail de simulation sur trois des principales approches, le modèle structurel et deux modèles réduits, celui de Panzar et Rosse (1987) et celui de Hall (1988), Carlton et Hyde (1995) posent la question de savoir si ces approches permettent de mesurer le pouvoir de marché. Ils montrent que les modèles structurels sont adéquats à leurs objectifs et que la méthode de Hall ne convient que lorsqu’existent des rendements d’échelle constants (constant return to scale) alors que celle de Panzar et Rosse ne fonctionne pas avec la spécification standard (Cobb-Douglas). Leur conclusion est la suivante : « The strength of the structural model is that it provides an estimate of market power, unlike the other two models » (p. 481). Les travaux sur Microsoft sont eux-aussi nombreux mais nous n’avons trouvé qu’une seule publication qui essayait de mesurer de manière frontale, pourrait-on dire, le pouvoir de marché de la firme, celle de Khan, Islam & Ahmed (2004). Les auteurs utilisent le modèle de Panzar et Rosse dans sa forme la plus simple et spécifient la fonction suivante : Q = A Wx Iy où Q est l’output (ici le chiffre d’affaires), W est le coût du travail (ici le salaire moyen dans l’industrie du logiciel) et I est le taux d’intérêt. La période couvre les années 1994 à 2003 et des données trimestrielles sont utilisées. Mais le modèle semble mal spécifié pour une industrie comme celle du logiciel. L’output de Microsoft dépend principalement de la demande et non pas du coût du travail et encore moins du coût du capital. En effet, l’industrie du logiciel est légère en frais fixes amortissables comme nous l’avons déjà indiqué au chapitre précédent. De plus, Microsoft n’a jamais eu recours aux concours bancaires, bénéficiant d’une trésorerie pléthorique. Enfin, les auteurs utilisent une forme Cobb-Douglas inadaptée à leur type de modélisation (Cf. Perloff & Hyde mais ce fait avait déjà été noté par Panzar & Ross). Notons enfin que Boyer (1996) émet une critique du modèle structurel que l’on peut appliquer à notre cas. Le modèle structurel est un modèle « oligopolistique » en ce sens qu’il part de l’hypothèse que le pouvoir de marché est une dimension de l’industrie et non pas d’une firme individuelle. Pour toutes ces raisons – absence de données pour spécifier un modèle structurel, non adéquation des modèles réduits – il nous faut suivre une voie transversale comme le proposent Carlton & Perloff (1998). Nous proposons donc la méthode suivante pour mesurer l’existence du pouvoir de marché de firmes d’une industrie à économies d’échelle. Un pouvoir de marché doit se traduire par des prix supérieurs et donc des profits supérieurs. La question est ici celle du référent : supérieurs à quoi ? Supérieurs aux profits attendus dans une telle industrie en fonction de l’échelle des ventes. Si l’on accepte l’hypothèse que les économies d’échelle représentent la caractéristique principale de l’industrie et qu’il n’y a pas de larges possibilités d’efficacité supérieure19 pour une firme de l’industrie, alors nous proposons d’identifier le pouvoir de marché d’une firme de la façon suivante :
Dans son article sur les barrières à l’entrée, Demsetz (1982) explique que « the equalization of profit rates through competition, however, is a proposition logically valid only with respect to investment on the margin20 of alternative economic activities. Only if all inputs are available in perfectly elastic supply does this imply equality between average profit rates » (p. 47). Il précise plus loin: « a barrier to competitors may arise from the superior efficiency of existing firms, in which case their low prices are precisely what competitive markets are expected to bring forth » (p. 52). Il faut accepter la verisimilitude21 des arguments de Demsetz et de l’école de Chicago22. Conditions d’accès aux inputs et efficacité supérieure peuvent être cause de profits supérieurs qui ne dénotent pas, dans ce cas, de pouvoir de marché. Ici, les conditions d’accès aux inputs sont a priori égales pour tous les acteurs. Par contre, l’hypothèse d’une difficulté à mettre en place une efficacité significativement supérieure à la moyenne est fondamentale pour notre propos. Les arguments sont ici de deux sortes. D’une part, les entreprises de logiciel sont de petite dimension et les « X-inefficencies » à la Liebenstein ont peu de chances d’exister. D’autre part, une efficacité supérieure, si elle existe, ne peut se manifester que dans le champ de la conception/production du logiciel, identifiée comme activité de R&D par les firmes du secteur. Les travaux de Cohen & alii (1987, 1989) et de Cohen (1995) ont montré que les avantages de la grande entreprise en matière d’innovation, mesurée par son ratio R&D sur CA ne sont pas significatifs (il n’y a pas de corrélation entre le taux de R&D et les ventes). Il faut s’arrêter sur les conséquences des diverses hypothèses : un avantage de la grande entreprise devrait se traduire par un ratio R&D sur ventes plus faible (par rapport à la petite ou moyenne entreprise). De même, un désavantage devrait se traduire par un ratio R&D sur ventes plus important pour la grande entreprise (toujours par rapport à la petite ou moyenne entreprise). Qu’en est-il dans le cas de l’industrie du logiciel ? En fait, l’industrie du logiciel est caractérisée par une faible variance du taux de R&D (Cf. paragraphe suivant). Microsoft est, en matière de ratio R&D/CA, très proche de la moyenne dans le troisième quartile. On ne peut évoquer à ce sujet une efficacité supérieure. Un des arguments principaux des théoriciens de la nouvelle économie (du nouveau monopole pourrait–on dire) est constitué du paradigme bien connu de Schumpeter. L’innovation étant risquée, elle est en droit de bénéficier pendant un certain temps d’une position de monopole. La situation est a priori contradictoire car ce monopole empêche l’innovation suivant le même Schumpeter. On a donc une tension entre monopole et innovation d’un côté et concurrence et innovation de l’autre. La dynamique de l’innovation (qui est celle du capitalisme pour Schumpeter) doit fonctionner dans le temps selon le schéma suivant : Innovation 1 – monopole 1 – concurrence – innovation 2 – monopole 2 … etc. Du point de vue du bien–être social, le temps de monopole est un temps perdu. Mais ce temps doit exister car sinon, il y aurait peu ou très peu d’innovations. Quelle peut être la durée de ce temps de monopole ? Les théoriciens de la nouvelle économie expliquent que ces secteurs des nouvelles technologies sont très dynamiques et que les monopoles durent entre trois et cinq ans, ce qui correspond bien à l’idée que l’on se fait d’un retour sur investissement risqué. Qu’en est-il pour Microsoft ? Notre base de données ne comprend que 10 années mais nous pensons que cela est suffisant pour mesurer sur un temps raisonnablement long la position monopolistique ou non de Microsoft. 2- Les données Nous utilisons la base de données sur les 35 premières firmes de l'industrie mondiale des logiciels sur les dix ans allant de 1994 à 2003. Elle contient, entre autres, les résultats des variables suivantes : Chiffre d’affaires, R&D, Résultat net, Résultat d’exploitation, Capitaux propres. Sont exclus, par manque d’informations, trois acteurs qui font partie des 35 premiers, IBM, Fujitsu et SAS. Les deux premiers car les informations concernant leur activité logicielle est trop succincte et le dernier parce que celui-ci, bien qu’éditeur de logiciel, est privé (ce n’est pas une public company) et ne fournit aucun élément comptable. Les statistiques descriptives sont les suivantes (tableaux 16 à 20) : Tableau 16 Année 2003 en pourcentages
Tableau 17 Année 2000 en pourcentages
* Intuit. Tableau 18 Année 1998 en pourcentages
* Intuit a investi dans des start up et inclus la valeur de ces actifs dans ses CP. Tableau 19 Année 1995 en pourcentages
3- Les mesures du pouvoir de marché de Microsoft a) Relations entre profits et chiffre d’affaires par année : Nous utiliserons trois variables de profit pour augmenter le faisceau de présomptions, si présomptions il y a : le résultat net, le résultat d’exploitation et les capitaux propres. Les capitaux propres ont une signification particulière dans l’industrie du logiciel : les firmes ne distribuent en général pas de profits à leurs actionnaires et les capitaux propres représentent une bonne estimation des profits passés. Le choix de la valeur des économies d’échelle est le suivant : Années 1998 – 2003 : 1,16 Années 1994 – 1997 : 1,10 On se souvient des résultats du chapitre précédent : le SCE des grandes entreprises (et par conséquence des années 2000 et après) vaut 1,16 ce qui représente la moyenne des SCE annuels des années 1998 - 2003. La moyenne des SCE des années 1994 – 1997 vaut quant à elle 1,04. On prendra une marge supérieure à 5% pour ces années car le nombre d’entreprises est plus faible soit un SCE de 1,10. Les régressions estimées seront de la forme : Rn= a + bCApuissance avec CApuissance = CA puissanceSCE Rexp = a + bCApuissance CP = a + bCApuissance Nous donnons ci-dessous les résultats (tableau 20) pour les régressions concernant le résultat d’exploitation sur les 10 années (valeur de t entre parenthèses). Le coefficient a (intercept) est, comme souvent, non significatif alors que b est toujours très significatif. Globalement, malgré la simplicité du modèle, l’estimation du résultat d’exploitation par la méthode des moindres carrés apparaît robuste. Les mêmes résultats sont obtenus sur les deux autres indicateurs de rentabilité, soit le résultat net et les capitaux propres (Cf. annexe, 3). |
![]() | ![]() | ||
![]() | ![]() | «école doctorale» pour tous les étudiants inscrits à un doctorat, hdr (habilitation à diriger des recherches) ou drt (diplôme de... | |
![]() | ![]() | «rabâchage» : composante de la mémoire lexicale – pas de sens, vocalisation «bête» permet de conserver des informations pendant... | |
![]() | ![]() | ||
![]() | ![]() |