Par le

Roland-Garros : comment l’économie éclaire les performances des champions

La science économique a des choses à dire sur le tennis. Leonard Zhukovsky
François Lévêque, Mines Paris - PSL

Chaque année, à la fin du printemps, Paris reçoit l’élite du tennis mondial. Les écrans se couvrent alors d’un fond couleur brique pilée traversé par des balles jaunes. Entre deux matchs, les caméras s’attardent sur les allées de Roland Garros où se presse un public plutôt chic. Tennisman amateur mais économiste professionnel, je les ai parcourues pour découvrir les arcanes des compétitions internationales de tennis. La science économique n’a-t-elle pas promu la théorie des jeux et même élaboré une théorie des tournois ? Les joueurs professionnels sont-ils sensibles à l’appât du gain ? Agissent-ils en stratèges et en monstres de sang-froid ?

Le prochain vainqueur de Roland Garros empochera 2,4 millions d’euros. Peut-être sera-ce encore Rafael Nadal, pour la quinzième fois. Même somme pour celle qui emportera la finale. Iga Swiatek la Polonaise pour une troisième victoire ? Quoiqu’il en soit, un peu plus de 50 millions d’euros seront distribués cette année aux joueurs et aux joueuses.

Comme pour les autres sports professionnels, le tennis n’offre pas que des trophées en argent à brandir devant un public exalté. Son caractère particulier réside dans le très grand écart des dotations pécuniaires aux différents tours de la compétition. La figure ci-dessous en offre un aperçu pour les tournois des Masters ainsi que pour les tournois du Grand Chelem (Roland Garros, US Open, Wimbledon et Open d’Australie).

Attirer les plus grandes stars

Les prix répondent à une double finalité. La première est évidente : attirer les joueurs dans la compétition, en particulier les plus grandes stars. Manifestement, aux yeux des organisateurs des quatre tournois majeurs, le prestige et les points au classement international qu’ils rapportent ne suffisent pas pour s’assurer de la présence de la plupart des cent premiers joueurs mondiaux. Cela vaut notamment pour l’Open d’Australie du fait de son éloignement géographique. La seconde est peut-être moins intuitive : faire en sorte que les joueurs donnent le meilleur d’eux-mêmes. Ce qui suppose qu’ils réalisent plus d’efforts en match dès lors que la victoire leur rapporte plus d’argent.

Un petit nombre d’études empiriques ont mis en évidence cette sensibilité des joueurs professionnels au gain. Il a par exemple été estimé que la performance sur les courts augmente d’environ 1 % quand le différentiel double entre le prix accordé au vainqueur et celui accordé au perdant. Ou encore que le favori du match présente 2,8 % plus de chances de l’emporter lorsque le différentiel augmente de plus de la moitié par rapport à la moyenne. Remarquez que la démonstration n’est pas directe. L’effort des joueurs n’est pas observable en tant que tel. Il est alors supposé que la performance des joueurs ou le niveau de jeu du favori reflètent les efforts consentis, toutes choses égales par ailleurs.

D’un point de vue théorique, cette réponse des joueurs aux incitations financières n’est pas surprenante. Les compétitions de tennis sont organisées comme une série de rencontres successives éliminant le perdant et autorisant seul le gagnant à poursuivre sa route vers une éventuelle victoire finale. Un tournoi donc, modélisé justement par la théorie économique du même nom. Elle part de l’idée que la performance d’un individu dépend de son talent et de ses efforts et qu’il ajuste ces derniers en fonction du gain espéré (soit le montant des primes successivement offertes aux vainqueurs des matchs moins le coût de l’effort). Le compétiteur augmente sa probabilité de victoire en exerçant un plus grand effort étant donné le talent et l’effort de son adversaire ainsi que son propre talent.

Nécessaire inégalité du barème ?

La théorie des tournois implique d’établir un barème de prix fortement inégalitaire. Raisonnons par l’absurde en supposant que le prix soit le même pour tous les duels. L’effort individuel se relâcherait inéluctablement des premiers éliminatoires jusqu’à la finale. Imaginez par exemple que le prix en cas de victoire pour les quarts, les demi-finales et la finale soit de 100 000 euros par match. Un quart de finaliste peut s’attendre à emporter 300 000 euros s’il gagne toutes les épreuves ; mais une fois parvenu en demi-finale, il ne peut plus espérer qu’emporter 200 000 et seulement même 100 000 s’il parvient à la finale. La perspective d’une espérance de gain décroissante se traduirait par un effort décroissant au fur et à mesure du déroulement du tournoi.

[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]

Pour s’assurer un effort des individus constant d’un tour à l’autre, il faut que le prix augmente d’un tour à l’autre. La théorie des tournois suggère même d’offrir un prix incomparablement plus élevé pour le gagnant de la finale car une fois remportée, faute de nouveau duel devant lui, il n’a plus de gain supplémentaire à espérer. Les organisateurs des compétitions de tennis ne sont sans doute pas familiers de la théorie économique des tournois mais à la vue de la figure présentée plus haut ils en suivent sans le savoir les préceptes.

Attention toutefois à ne pas se méprendre. Il ne s’agit pas de prétendre que les joueurs professionnels de tennis sont des Homo œconomicus. Ils se révèlent certes sensibles à l’appât du gain mais il n’est évidemment pas leur seule motivation à exercer des efforts pour gagner leurs matchs. Le goût de vaincre, la recherche de notoriété, la volonté de marquer son époque, ou même simplement l’amour du jeu sont également de puissants incitants. Plus sans doute même que l’argent comme le laisse supposer d’ailleurs les effets de quelques pour cent seulement mis en évidence par les études empiriques citées plus haut.

Des stratèges du service ?

Le service est le seul geste parfaitement à la main du joueur. Il en est le maître. A lui seul d’agir et pas seulement de réagir. A lui de décider où placer sa balle dans le terrain adverse ainsi que de l’effet et de la vitesse qu’il veut lui imprimer, 257 km/étant le record officiel à battre pour les hommes. Naturellement, si le receveur le savait d’avance, son retour serait plus efficace. D’où la nécessité de servir de façon imprévisible sur le revers ou le coup droit de l’adversaire. Et non de servir systématiquement sur l’un de ses flancs même s’il est un peu plus faible.

Statistiquement, on observe que la probabilité de gagner le point en servant à droite ou à gauche est quasiment identique. Par exemple sur dix matchs durant lesquels d’anciens champions comme Borg, McEnroe, Lendl ou Sampras ont servi 3 026 fois, le serveur a gagné en moyenne 65 fois sur 100 le point en servant à droite et 64 fois à gauche. Ceci alors même que sur ces matchs les serveurs ont un peu plus servi à droite qu’à gauche, une différence reflétant un service en moyenne plus efficace sur ce côté.

Là encore, cela ne constitue pas une surprise pour un théoricien. Une égalité de probabilité est attendue par la théorie des jeux lorsque, face à l’incertitude, les décideurs suivent une stratégie dite « minimax regret ». Cette dernière consiste à minimiser le maximum de regrets qu’ils peuvent avoir au moment de prendre leur décision. Dit autrement quand le regret de n’avoir pas choisi la meilleure solution est minimal. Les statistiques qui viennent d’être citées proviennent d’ailleurs d’un article intitulé « Minimax Play at Winbledon » paru il y a près de vingt ans dans la plus prestigieuse des revues académiques en économie. Ses auteurs modélisent le jeu théorique du point de service comme un double choix : celui du serveur mais aussi celui du receveur qui prépare un peu à l’avance son coup droit ou son revers, par exemple en se postant un peu plus à droite ou à gauche sur la ligne de fond de court. L’équilibre de ce jeu est donné par une proportion précise de service droite/gauche : celle pour laquelle ni le serveur, ni le receveur n’ont intérêt à dévier car ils perdraient alors plus souvent.

L’égalité statistique des probabilités de gagner à droite et à gauche a été récemment confirmée sur 3 000 matchs et un demi-million de balles de services. Il faut dire que les 3026 services sur les dix matchs cités plus haut avaient été laborieusement collectés par les chercheurs en les visionnant eux-mêmes. Depuis l’introduction de Hawk-Eye, le système électronique d’aide à l’arbitrage qui reconstruit la trajectoire de chaque balle et permet même aux téléspectateurs de voir où elle a atterri, une masse de données est désormais disponible.

Les joueurs professionnels, des anxieux comme les autres ?

Le suivi parfait d’une stratégie « minimax regret » suppose également que les joueurs parviennent à la proportion d’équilibre selon une suite aléatoire. Si cette proportion est par exemple de deux tiers de services à droite et d’un tiers à gauche, il ne s’agit pas de servir deux fois à droite puis une fois à gauche ou vice-versa et répéter ensuite l’opération. Les joueurs de tennis professionnels ne se conforment pas ici à la théorie. Ils ont tendance à trop changer de côté par rapport à une machine qui établirait des séquences droite/gauche purement aléatoires. Ils ne sont pas de parfaits robots.

Un constat d’humanité qui se vérifie facilement par tout à chacun. Des robots ne pousseraient pas des grognements en tapant la balle comme Monica Seles en son temps. Ou ne suivrait pas comme Rafael Nadal un long rituel parcouru de tics avant de servir. Plus sérieusement, on observe dans les matchs du circuit professionnel que gagner un point augmente la probabilité de gagner le suivant. Un sentiment de confiance renforcée, sans doute. Et inversement la perte du point précédent augmente la probabilité de perdre le suivant. Le signe vraisemblable d’une anxiété montante.

Des travaux empiriques semblent montrer qu’elle n’épargne pas les professionnels. Dans un travail récent paru dans Psychology of Sports and Exercise, un trio de chercheurs s’est penché à la fois sur les points qui suivent une erreur manifeste (comme une double faute au service) et ceux qui présentent un caractère crucial à un moment de la partie (comme les balles de jeu décisif, de set, et de match), des points pour lesquels la pression sur les épaules du joueur est donc la plus élevée.

Mi-humain mi-robot

Les chercheurs découvrent alors qu’un point crucial succédant à une balle ratée a plus de chances d’être manqué qu’un point ordinaire. Et aussi que les vainqueurs des matchs ne sont pas plus immunisés contre cet effet renforcé de l’anxiété que ceux qui les perdent. S’ils gagnent leur match, ce n’est pas tant à cause d’un sang-froid plus grand lors des points cruciaux mais parce qu’ils maintiennent un niveau général de jeu plus élevé. Un travers cognitif qui n’épargne pas les commentateurs leur ferait prendre systématiquement les balles cruciales réussies pour une preuve de sang-froid.

Il y a toutefois des exceptions. Dans un essai de typologie des mentalités, des joueurs et joueuses de tennis à partir de données portant sur près de 1 000 joueurs et joueuses et trois millions de points, une économiste et un statisticien ont montré que les grands champions formaient une catégorie à part par leur moral d’acier. Parmi les hommes, on y trouve une douzaine de joueurs dont Djokovic, Nadal et Federer qui ont gagné 56 finales simples de Grand Chelem à eux trois. Ils servent mieux et non moins bien les balles de jeu décisif, sont moins affectés que les autres lorsque le point précédent a été perdu, et montent leur niveau de jeu sur les points leur permettant de prendre le service à leur adversaire.

Cette dernière caractéristique est d’ailleurs partagée par Jo Wilfried Tsonga et Gaël Monfils, deux joueurs chers au public français. Monter son niveau de jeu quand il le faut est aussi bien sûr un trait commun aux grandes championnes comme Serena Williams (23 victoires en simple de Grand Chelem). Les très grands du tennis sont des robots humains. Ils allient le sang-froid des premiers et l’aptitude mentale des hommes et des femmes à se surpasser, et aussi comme les autres à ne pas être insensibles à l’argent.

Je vous souhaite de bonnes parties de tennis à venir comme joueur dans votre club et spectateur ou téléspectateur des matchs de Roland Garros.

François Lévêque, Professeur d’économie, Mines Paris - PSL

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Par le

Image de freepik

Sommes-nous prêts à confier nos décisions d’achat à une IA ?

Patricia Rossi, SKEMA Business School et Mariyani Ahmad Husairi, Neoma Business School

Beaucoup de ce que nous faisons semble porter la marque de l’intelligence artificielle (IA) et des algorithmes. Ils sont censés nous faciliter la vie en prenant en charge certaines tâches. Jusqu’à bientôt nous aider à choisir au moment d’effectuer des achats ?

Le processus de décision peut s’avérer complexe : prendre conscience d’un besoin ou du désir de quelque chose, recueillir des informations sur les différentes possibilités qui s’offrent à nous, les comparer, puis enfin choisir. Ce processus peut aller plus ou moins vite : plus nous sommes impliqués dans le produit, plus nous réfléchissons à chaque étape de ce processus.

L’IA peut y intervenir au moins à deux titres. D’abord, lorsqu’elle recommande quelque chose, elle réduit les choix à notre place. Elle prend en charge une partie de la collecte d’informations sur les produits concurrents et la comparaison des alternatives possibles et réduit ici notre « autonomie de choix ». Elle peut également intervenir activement dans la décision d’achat finale et agir sans notre intervention. On parle ici d’« autonomie de décision ». Les réfrigérateurs intelligents, par exemple, fournissent déjà des données à un algorithme qui détermine quand se réapprovisionner et ce qu’il faut acheter. De même, le service en ligne Boxed.com expédie des produits en fonction de prédictions sur le moment où ses clients seraient à court d’articles.

Ce genre d’« initiatives » de l’IA peut présenter des avantages : gains de temps, mois d’effort de réflexion, économie d’argent aussi potentiellement. Pourtant, nous voulons toujours être aux commandes, être nos propres maîtres. L’autonomie de choix et de décision nous procure des avantages psychologiques, nous permet d’afficher nos valeurs et de construire, entre autres, notre identité. L’autonomie contribue à notre bien-être.

Notre récente étude a tenté d’approfondir cette ambivalence. Nous avons mis en place plusieurs études expérimentales pour comprendre quand l’autonomie de choix et de décision peut avoir un impact sur l’adoption d’outils reposant sur l’IA dans un contexte de consommation. Nous avons isolé deux variables, l’autonomie de choix de l’autonomie de décision, afin de déterminer si elles modifient individuellement notre probabilité d’adopter pareils outils.

La liberté, même quand le choix est compliqué

Que montrent systématiquement nos études ? De façon peu surprenante, plus l’autonomie de choix perçue et l’autonomie de décision perçue sont faibles, plus la probabilité d’acceptation de l’IA est faible. En d’autres termes, lorsque les consommateurs ont l’impression de disposer d’une autonomie de choix et de décision, ils sont plus susceptibles d’adopter une technologie reposant sur l’IA que lorsqu’ils ressentent un manque d’autonomie.

Que se passe-t-il lorsque l’IA est destinée à faciliter une décision d’achat complexe, par exemple, si un consommateur doit faire un choix sur la base de 20 attributs importants ? Serait-il alors plus enclin à renoncer à son autonomie ? C’était ce que nous imaginions à l’origine. Nous supposions que, lorsque des facteurs de complexité entraient en jeu, les consommateurs se fieraient davantage aux recommandations générées par les algorithmes. À notre grande surprise, même face à de telles complexités, les consommateurs souhaitent conserver leur liberté de choix et leur autonomie de décision.

Dans l’ensemble, les résultats de notre étude montrent que le désir des clients de préserver leur autonomie dépasse le besoin de réduire le temps et les efforts résultant de décisions complexes. Nous ne voulons pas que l’IA prenne complètement en charge nos tâches d’achat, car notre autonomie compte encore.

Quand l’identité est en jeu

Cela signifie-t-il que nous préférons toujours conserver notre autonomie plutôt que de céder nos choix et nos décisions d’achat à l’IA ? C’est le cas dans la plupart des situations. Sauf… lorsque nous pensons que l’IA peut nous aider à acheter les choses dont nous avons besoin pour mener à bien des activités que l’on considère importantes pour notre identité. La pêche, la pâtisserie et la course à pied sont, par exemple, des activités liées à l’identité. Des études antérieures ont pourtant montré que lorsque la technologie prenait en charge des fonctions pertinentes pour l’identité d’une personne, il en résultait une aversion pour la technologie car nous voulons effectuer ces activités nous-mêmes : nous ne pouvons pas nous considérer comme des boulangers si une machine fait la plupart du travail à notre place !

[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Mais nos travaux montrent que, lorsqu’une activité est importante pour nous, nous sommes heureux de renoncer à notre autonomie d’achat au profit de l’IA, si celle-ci finit par nous aider. Un coureur passionné est par exemple plus susceptible de laisser l’IA acheter ses chaussures de course qu’un coureur occasionnel.

Ces effets se produisent parce que les outils d’achat reposant sur l’IA complètent les objectifs identitaires des consommateurs tout en leur permettant de s’attribuer le résultat. Si l’IA se charge, par exemple, de l’achat des chaussures d’un passionné, cela permet à ce dernier d’économiser du temps et de l’énergie pour courir. Il pourra alors dire sans gêne : « J’ai laissé l’IA acheter mes chaussures de course afin de pouvoir consacrer plus de temps à ce qui compte vraiment : la course à pied ! »

Patricia Rossi, Associate Professor of Marketing, SKEMA Business School et Mariyani Ahmad Husairi, Assistant Professor of Marketing, Neoma Business School

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Par le

Image de freepik

Prix planchers dans l’agriculture : producteurs et consommateurs pourraient bien y perdre

Jean-Marie Cardebat, Université de Bordeaux et Benoît Faye, INSEEC Grande École

Jeudi 4 avril, les députés ont adopté en première lecture, malgré l’opposition du camp présidentiel, une loi en faveur de « prix minimal d’achat des produits agricoles ». Le texte proposé par les élus Europe Écologie les Verts, et qui ne sera probablement pas voté par le Sénat, part d’une intention louable. Nécessaire peut-être au regard de la faiblesse de prix qui parfois ne couvrent pas les coûts des productions agricoles. L’idée d’aligner par la loi les prix de vente des agriculteurs à leurs coûts de revient déterminés par les experts des chambres d’agriculture ou des interprofessions, notamment, est indubitablement séduisante.

Elle contient pourtant en germe des conséquences délétères qui pourraient dégrader à terme la santé économique de filières déjà mal en point. La loi semble être proposée sans étude préalable de fond sur ses effets complets sur les marchés. Or, deux problèmes principaux pourraient bien se poser. Le premier est technique. Il concerne la fixation du prix plancher, son niveau. Le second est économique et porte sur l’impact du prix plancher pour le consommateur. Les deux points sont liés. Commençons, dans l’ordre par le niveau de prix à fixer.

Avantager des producteurs qui n’en ont pas besoin

Dans toutes les filières, agricoles comme industrielles, les entreprises sont hétérogènes et diffèrent par leurs niveaux de productivité et de qualité. Les exploitations disparates en productivité ont dès lors des coûts différents pour produire un bien similaire et les plus productives enregistrent des profits supérieurs. Augmenter les prix de vente par la loi risquerait ainsi de faire apparaître des surprofits chez les plus productifs. Le système avantagerait donc des acteurs qui n’en avaient pas besoin. C’est une première source d’inefficience.

La seule réponse à ce problème est d’adapter le prix par catégorie d’exploitation. Cela peut être fait grossièrement en regardant notamment leur taille : plus grande est l’exploitation, plus elle pourra en théorie bénéficier d’économies d’échelle et donc d’une meilleure productivité. Pareille approche resterait toutefois tant approximative que complexe car il faudra un prix par catégorie.

Les choses se complexifient plus encore lorsque l’on considère des biens qui se différencient les uns des autres par leur qualité. Un prix plancher va surtout augmenter le prix de la qualité inférieure. Par réaction, les exploitants des qualités immédiatement supérieures vont augmenter leurs prix pour signaler leurs qualités supérieures justement et ne pas se retrouver dans la situation de vendre moins cher un bien de qualité supérieure. Par effet de report de tranche de qualité en tranche de qualité, c’est l’ensemble de l’échelle des prix le long de la gamme qui va s’élever. Pourtant, là encore, aucune hausse de prix n’était justifiée à la base pour les qualités supérieures. Un effet de rente, de surprofit, apparaît de nouveau.

L’expérience dans d’autres domaines montre que l’échelle des prix devrait en fait se resserrer. Un bon exemple de cette dynamique de propagation vers le haut d’une hausse des prix en bas de l’échelle est donné par le prix du travail avec les hausses régulières du salaire minimum (smic en France). L’effet s’estompe à partir d’un niveau de salaire supérieur ou égal à 1,5 smic. Dès lors, on peut anticiper une contagion de hausse d’un prix plancher s’atténuant à mesure que l’on monte dans l’échelle des qualités et donc des prix.

Plus à perdre qu’à y gagner ?

Toutefois, les conséquences de prix plancher en termes de rentes pour les exploitants les plus productifs et les plus qualitatifs ne paraissent pas être le principal problème pour la filière agricole. Le plus gros écueil pourrait venir du consommateur. Quid de l’évolution de la demande face à une hausse des prix consécutive à la mise en place d’un prix plancher ?

L’effet passe par deux mécanismes que l’on nomme élasticités-prix directes et élasticités-prix croisées de la demande de biens agricoles par le consommateur final. L’élasticité-prix directe de la demande d’un bien mesure en pourcentage la variation de demande consécutive à une variation de prix de ce bien. Concrètement, de combien diminue la demande lorsque le prix augmente de 10 % ?

Dans une étude préliminaire portant sur la filière viticole française, nous avons calculé pour des vins d’entrée de gamme vendus en grande surface des élasticités pouvant dépasser l’unité : c’est-à-dire que la demande varie dans une proportion plus importante que les prix. Ces travaux sont cohérents avec d’autres, déjà publiés qui mesurent ces élasticités-prix à l’export pour la demande étrangère. Le chiffre d’affaires des producteurs va alors baisser : le prix multiplié par la quantité vendue va diminuer sous l’effet de la baisse de la consommation plus importante que la hausse du prix.

Le consommateur y perd encore plus. Finalement, c’est le surplus social qui s’est dégradé avec une perte marquée pour le consommateur dont le transfert vers le producteur, via la hausse du prix de vente, ne suffit pas à améliorer la situation de ce dernier. Les deux perdent et c’est donc une perte sociale nette.

De nouveaux choix de consommation ?

Le consommateur peut aussi réaliser des reports de consommation face à une hausse des prix d’un bien donné : vers des biens de qualité supérieure, vers des biens importés ou vers des substituts proches, qui tous deviennent en termes relatifs moins cher au regard du bien dont le prix a augmenté. C’est là le jeu des élasticités-prix croisées entre différents biens.

L’exemple du vin est là encore riche en enseignements. Nos premiers résultats montrent que ces effets de report semblent bien à l’œuvre. La hausse du prix en entrée de gamme pourrait pousser le consommateur vers un niveau de qualité supérieure, précipitant ainsi la baisse de chiffre d’affaires pour le vin d’entrée de gamme. L’exact opposé de l’effet désiré par la loi.

Pire, l’effet de report peut aller vers les biens importés et donc entrainer une perte nette à l’échelle nationale. Dans certains secteurs l’origine est moins regardée que dans d’autres et une étiquette « UE » suffit parfois à rassurer le consommateur sur un certain niveau de qualité. Enfin, l’effet de report peut même faire sortir le consommateur d’une filière. C’est le cas pour le vin ou un prix plancher peut amener un arbitrage du consommateur favorable à la bière ou autre boisson jugée substituable.

Éviter en aval un effet boomerang

Les conditions de réussite de la loi tiennent ainsi aux filières visées : elles doivent être au maximum homogènes en productivité et en qualité pour minimiser les effets de rentes et de reports. Elle doit en outre porter sur des biens agricoles dont la demande est faiblement élastique au prix, donc des biens dont il est difficile de se passer pour le consommateur. Ainsi, pour le producteur, la perte de vente restera limitée et plus que compensée par la hausse du prix. En outre, les substituts, importés ou non, doivent être peu nombreux pour éviter les reports. Les pouvoirs publics devront trancher cette question délicate des produits éligibles pour lesquels la loi n’aurait pas d’effets adverses. Selon le texte voté à l’Assemblée nationale, c’est une « conférence publique » par filière qui fixerait ces minima, conférence qui ne serait convoquée « qu’à la demande d’une majorité des producteurs » de la filière en question.

Les pouvoirs publics devront également décider du sort des invendus générés par une hausse des prix. Qui va payer leur destruction ? À coup sûr une indemnisation sera demandée par les producteurs qui vont voir leurs stocks gonfler. Toutes ces questions vont apparaître en boomerang de la loi. Est-ce que tout cela a été pesé, évalué, budgété au moment du vote ? N’y aurait-il pas des mesures à prendre en amont pour éviter ces effets en aval ?

Une grande partie du problème venant de la hausse du prix pour le consommateur final, il faudrait que le prix plancher n’affecte pas le consommateur pour éviter les conséquences adverses décrites plus haut. Deux solutions. Soit l’État subventionne le prix plancher en compensant l’écart entre le prix de marché et le prix plancher pour que la chaine des intermédiaires conserve les mêmes prix et que rien ne change pour le consommateur final. Soit les intermédiaires absorbent dans leurs marges la hausse du prix liée à la loi. Si la hausse est mesurée elle pourra être absorbée dans le cadre de négociations associant tous les acteurs et, pourquoi pas, dans le cadre d’une énième discussion sur la loi Egalim.

Dans tous les cas, dans les filières agricoles (comme dans la plupart des filières d’ailleurs), l’essentiel de la création de valeur se fait dans les derniers stades de la chaine de valeur, les stades de la commercialisation. La valeur n’augmente pas de façon linéaire de l’amont à l’aval du processus de production d’un bien, elle augmente de façon exponentielle : peu au début, beaucoup à la fin. Cela a été bien documenté dans le vin par exemple. Une réflexion de fond sur le partage de la valeur entre les acteurs, l’organisation industrielle et les mécanismes de gouvernance des filières agricoles s’impose. Ce travail était certainement préalable à une loi sur les prix planchers.

Jean-Marie Cardebat, Professeur d'économie à l'Université de Bordeaux et Prof. affilié à l'INSEEC Grande Ecole, Université de Bordeaux et Benoît Faye, Full Professor Inseec Business School, Chercheur associé LAREFI Université de Bordeaux Economiste des marchés du vin, de l'art contemporain et Economiste urbain, INSEEC Grande École

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Par le

Image de rorozoa sur Freepik


Image de freepik

Comment le Guide Michelin rebat les cartes des restaurants qu’il récompense

Saverio Favaron, SKEMA Business School

Le 6 mars 2023, quelques minutes après 10 heures du matin, les lumières du Palais de la musique et des congrès de Strasbourg s’éteignent. Un compte à rebours, sur un air très martial, annonce l’ouverture officielle de la cérémonie des étoiles. Plus de 600 chefs, vêtus de leurs uniformes immaculés, remplissent l’amphithéâtre, attendant avec impatience l’annonce des nouvelles étoiles Michelin.

Après une brève allocution du président du Conseil général d’Alsace, Gwendal Poullenec, directeur international du Guide Michelin, entre en scène. Il annonce qu’un message très spécial va être diffusé. Le président de la République Emmanuel Macron apparaît sur un écran géant. Il fait l’éloge du Guide Michelin, « bible de notre gastronomie », et félicite les chefs pour leur contribution au monde culinaire et à la société dans son ensemble :

« Les restaurants, qu’ils soient grands ou petits, créent de la vie. »

Malgré la longueur du discours et l’impatience croissante de l’auditoire, l’excitation est palpable, car ces professionnels attendent le dévoilement des prestigieux prix.

Ce moment fort se rejoue ce lundi 18 mars à Tours, date à laquelle le destin de quelques établissements pourra radicalement changer, les catapultant vers de nouveaux sommets de prestige et de succès. Toutefois, un tel succès peut également s’accompagner d’une pression et d’une insécurité immenses, comme le montre l’histoire de Marco Pierre White qui, en 1999, rend ses trois étoiles, suivi par d’autres chefs, en invoquant la pression insupportable subie pour maintenir le statut d’élite que tant s’efforcent d’obtenir.

Des menus qui se transforment

Le statut est une force puissante dans le monde des affaires, promesse d’une visibilité accrue, d’un accès facilité à des ressources et d’avantages en termes de performances. La nature instable et très visible des hiérarchies de statut peut cependant également être une source d’insécurité pour ceux qui se retrouvent au sommet. Elle peut conduire à des actions compensatoires et à des tentatives de se conformer aux attentes associées à une position élevée. Dans une étude récente, nous avons examiné comment les organisations qui subissent un choc de statut positif réagissent à leur nouvelle position. Nous nous sommes plus particulièrement concentrés sur la sortie de la première édition du Guide Michelin pour la ville de Washington, à l’automne 2016.

Le nouveau guide avait pour but de positionner la capitale américaine comme une destination gastronomique de premier plan. Avant sa publication, la ville souffrait de la réputation d’être avant tout le temple de steakhouses démodés. Grâce à la publication du guide le 13 octobre 2016, Washington est devenu à l’époque la quatrième ville américaine, après New York, San Francisco et Chicago, à la carte du prestigieux guide, club qui s’est élargi depuis. Cette inclusion s’est accompagnée d’une augmentation soudaine et positive du statut des restaurants sélectionnés, les propulsant dans l’élite de l’industrie au niveau mondial.

Nous avons analysé les menus des restaurants et leur évolution avant et après la publication du Guide Michelin. Leurs cartes fournissent en effet des informations riches et précieuses sur la façon dont se conçoivent les établissements. Ils constituent le principal outil de communication entre le professionnel et ses clients : ils présentent ses offres culinaires, ses prix et ses arguments de vente différenciants. Les menus reflètent les choix effectués par les gérants et les chefs, choix qui peuvent être influencés par la perception qu’ils ont de leur position dans le secteur.

Nous avons comparé les 106 restaurants récompensés à Washington en comparant leurs trajectoires à celles de deux autres groupes : les non récompensés de la ville qui remplissaient les conditions minimales pour entrer dans le guide (143 restaurants) et ceux d’une ville comparable (Boston) où Michelin n’est pas présent sélectionnés sur la base du type de cuisine, du niveau de prix et de l’évaluation Yelp moyenne (106 restaurants).

Trois changements principaux ont été observés dans les menus des néo-récompensés. Premièrement, ils ont modifié les caractéristiques descriptives de leurs menus afin de les aligner sur les attentes associées aux restaurants de haut niveau. La longueur des descriptions des plats a augmenté de 10 % et la moitié des références à la taille des portions avaient disparu. Deuxièmement, ces restaurants ont mis l’accent sur l’authenticité, caractéristique des restaurants d’élite : les références aux techniques de cuisson ont augmenté de 20 % et l’utilisation d’ingrédients biologiques, d’origine locale ou produits par de petits producteurs a été mise en avant. Enfin, les restaurants ont adapté leur stratégie de prix, principalement en augmentant les prix de leurs menus d’environ 5 %, ce qui témoigne d’une prise de conscience de la valeur qu’ils créent pour leurs clients.

Justifier son statut

La tendance à effectuer ces changements, fait notable, était plus marquée dans les restaurants qui figuraient dans le guide sans pour autant avoir reçu d’étoiles. Comme si ceux qui n’étaient pas en tête du classement ressentaient un plus grand besoin de justifier leur statut élevé. Nous avons aussi examiné comment la position d’un établissement (établie à partir des évaluations des critiques locaux) avant le choc de statut influençait les modifications des attributs de l’autoprésentation. Contrairement aux attentes, les restaurants jouissant d’un statut antérieur élevé, qui auraient dû être moins soucieux de montrer leur valeur, ont aussi mis l’accent sur les attributs liés à l’authenticité et à la valeur.

L’étude suggère également que les changements ne concernaient pas que la présentation de soi mais également des modifications matérielles dans les activités : changements dans les techniques de cuisson ou dans l’approvisionnement en ingrédients par exemple. Toutefois, les données disponibles ne nous ont pas permis de confirmer avec certitude l’ampleur des changements opérationnels.

On voit ici combien il est complexe de naviguer dans des positions de haut rang. Dans le contexte de l’industrie de la gastronomie, l’insécurité liée au fait de conserver son étoile d’année en année peut conduire à des changements dans la présentation de soi et, éventuellement, à des ajustements opérationnels.

D’autres de nos recherches soulignent l’impact de l’évolution des hiérarchies et des évaluations de statut dans d’autres secteurs à la fois sur les organisations et sur les individus. Toutes soulignent l’importance de bien appréhender, pour des dirigeants d’entreprises, les implications des chocs de statut afin d’en tirer le positif pour naviguer dans un paysage commercial dynamique et compétitif.

Saverio Favaron, Assistant Professor of Strategy, SKEMA Business School

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.