OEM, ODM, fabricants de puces, hyperscalers et cloud
Avec toutes les discussions récentes sur l'IA, les centres de données et le cloud, nous pensons qu'il est utile de rappeler que les processeurs tels que les GPU et les CPU ne représentent qu'environ 20 % du coût initial d'un serveur. Ceux-ci ont tendance à retenir le plus l'attention car le choix du processeur doit être fait en premier, et c'est cette décision qui détermine les options pour tout le reste du serveur, mais elles ne représentent qu'une partie du coût total.
La mémoire représente encore 20 %. Mais bien plus de la moitié du coût d'un serveur provient de produits beaucoup plus prosaïques – cartes de circuits imprimés (PCB), composants passifs, câbles, alimentations, disques durs et racks qui les contiennent – il faudrait y ajouter la mise en réseau, qui peut être plus coûteuse. que tous les autres composants, mais nous garderons cela pour une autre fois – qui vend tout cet équipement et où s’accumule la valeur ?
Note de l'éditeur:
L'auteur invité Jonathan Goldberg est le fondateur de D2D Advisory, un cabinet de conseil multifonctionnel. Jonathan a développé des stratégies de croissance et des alliances pour des entreprises des secteurs de la téléphonie mobile, des réseaux, des jeux et des logiciels.
Il existe deux types de fournisseurs ici – les OEM et les ODM – nous n’allons pas épeler les acronymes car cela complique le tableau. De manière générale, les constructeurs OEM possèdent les marques et les relations avec les clients finaux. Les ODM assurent l’approvisionnement et la fabrication – la production physique et l’assemblage de tous les équipements. Entre les deux, il existe un chevauchement considérable dans les domaines de la conception et de l’intégration des systèmes. Il est important de garder à l’esprit que les frontières entre OEM et ODM sont floues, avec des allers-retours importants dans de nombreux domaines.
Un peu d'histoire. Ce modèle a vu le jour dans les années 1990, alors que les fabricants de PC délocalisaient leur production des États-Unis vers l'Asie. Les marques de PC, les équipementiers, sous-traitaient à des sous-traitants largement basés à Taiwan. Ces entreprises fabriquaient des équipements à Taiwan et se sont ensuite fortement tournées vers la Chine. Au fil du temps, les fabricants sous contrat ont gravi les échelons de la chaîne de valeur, ajoutant ainsi des capacités de conception. Les fabricants sous contrat sont devenus des ODM, puis nombre d'entre eux ont créé des sociétés distinctes pour vendre leurs propres produits de marque, devenant ainsi des OEM à part entière. Ce modèle s’est ensuite infiltré dans la manière dont la plupart des produits électroniques à haut volume sont produits aujourd’hui.
Les serveurs évoluaient à un rythme légèrement différent. Ceux-ci offraient des volumes inférieurs et des prix plus élevés, de sorte que les équipementiers, les propriétaires de marques, conservaient les fonctions de conception (et parfois de fabrication) beaucoup plus longtemps. Pendant de nombreuses années, les équipementiers ont travaillé avec Intel pour concevoir une gamme de serveurs. Ils les revendaient ensuite aux clients. Bien qu'ils proposaient diverses configurations, il s'agissait en grande partie de systèmes sur catalogue – les clients choisissaient parmi les options disponibles.
Le cloud a changé tout cela.
Plus important encore, les fournisseurs de cloud public (alias les hyperscalers) en sont venus à dominer le marché, concentrant non seulement le pouvoir économique mais aussi les compétences techniques. Au fil du temps, les hyperscalers ont largement supprimé les OEM, travaillant directement avec les ODM pour se procurer les systèmes qu’ils ont eux-mêmes conçus.
Aujourd’hui, le paysage OEM se compose en grande partie de HP, Dell et Lenovo. Il existe des centaines d'ODM, mais les plus grands sont tous basés à Taiwan et comprennent Compal, Foxconn, Inventec, Quanta et Wistron. Les entreprises sont toutes très diverses avec des dizaines de filiales réparties tout au long de la supply chain. Il existe également une poignée d'autres ODM qui ont tendance à se spécialiser dans des niches spécifiques, comme le stock meme du moment SuperMicro avec leur spécialité dans les serveurs GPU.
Comment cela fonctionne-t-il en pratique ? Aujourd’hui, il existe un fossé entre les hyperscalers et pratiquement tout le monde. Imaginez une grande entreprise – une banque, une chaîne de restauration rapide ou un constructeur automobile – qui souhaite toujours posséder ses propres serveurs, voire ses propres centres de données. Ils travailleront avec les équipementiers, qui leur proposeront un catalogue de systèmes parmi lesquels choisir. Les OEM agiront alors généralement en tant qu'intégrateurs de systèmes – travaillant avec tous les fournisseurs pour se procurer des pièces, assembler les PCB, puis câbler le tout ensemble et installer le logiciel. Les équipementiers jouent ici un rôle important car ce sont eux qui prennent une grande partie des décisions d’achat.
En revanche, les hyperscalers exploitent des dizaines de centres de données. Leur activité repose sur d’énormes économies d’échelle et s’ils parviennent à réduire de 5 % le coût d’un serveur, cela entraînera des centaines de millions de dollars d’économies. En plus de cela, ils ont concentré leurs talents techniques. En termes simples, ils peuvent se permettre d’embaucher des équipes pour concevoir des serveurs optimisés pour leurs besoins spécifiques. Les autres grandes entreprises ne disposent pas de ces équipes et n’en ont pas vraiment besoin ; elles n’opèrent tout simplement pas à la même échelle. Les hyperscalers se rendent ensuite directement chez les ODM qui récupèrent tous les composants, assemblent les systèmes et les câblent. Ici, c'est le client final qui prend les décisions d'achat pour presque tous les composants.
Cela pose un gros problème pour tous les fournisseurs de composants. Imaginez un vendeur de puces. Ils doivent convaincre un client d’acheter leur puce, mais le client ne veut pas de puce, il veut un système fonctionnel complet. Avant d'accepter une commande importante, le client souhaitera tester ce système et s'assurer qu'il fonctionne correctement avec son logiciel. Le fournisseur de puces doit donc travailler avec un OEM ou un ODM pour concevoir ce système. Et ces conceptions coûtent de l’argent. Il faut une équipe de 5 à 10 personnes par mois ou deux pour tout organiser, vérifier les performances et garantir la compatibilité des micrologiciels et des logiciels. Ensuite, quelqu’un doit acheter des composants pour construire quelques prototypes.
Ces coûts s'élèvent rapidement, facilement à quelques centaines de milliers par système et souvent à sept chiffres. Ainsi, avant que le vendeur de puces puisse vendre une seule puce, il doit investir des sommes importantes. Les clients veulent tous des serveurs aussi proches que possible de leurs besoins, ce qui signifie que quelqu'un doit produire plusieurs versions du serveur, et donc les coûts peuvent exploser. Tout cela avant que quiconque sache à quel point la plateforme se vend bien.
Ce problème s'est aggravé. Lorsque seuls Intel et AMD vendaient des processeurs pour serveurs, la chaîne d'approvisionnement disposait d'un espace de décision limité, avec des fournisseurs bien établis. Maintenant qu'il existe une douzaine de concepteurs de processeurs, la combinatoire est beaucoup plus intimidante. Quiconque cherche à entrer sur le marché des accélérateurs d’IA doit faire face à tous ces coûts. Et pour les petits vendeurs, ils doivent faire très attention à la manière dont ils placent leurs paris.
Investissez dans le support d'une puce performante et les récompenses peuvent être immenses, mais investissez dans les mauvaises plateformes et les retours sont de grosses pertes. Le problème est encore plus aigu lorsqu’il s’agit de vendre aux hyperscalers. Ils veulent bien plus que quelques prototypes. Ils disposent de cycles de tests rigoureux qui vont d'une douzaine de systèmes à une centaine, voire quelques milliers. Ils peuvent les payer (ou non), mais toute entreprise concevant une puce a besoin de beaucoup plus de volume que cela pour justifier les coûts des systèmes de test, sans parler du coût de la puce entière.
Bien entendu, il existe toutes sortes d’initiatives visant à standardiser une grande partie de ces éléments. La mission principale de l'Open Compute Project est de standardiser la conception des serveurs. Et même si OCP a apporté des contributions majeures à l’industrie, nous ne pensons pas que quiconque puisse le décrire comme une norme commune. Tout cela va devenir plus complexe.
La diversification croissante des centres de données, du calcul uniquement CPU au calcul hétérogène, oblige tous les fournisseurs – et pas seulement les concepteurs de puces – à commencer à prendre de gros risques. Beaucoup courront après chaque accord, d’autres retomberont probablement sur leurs vieilles habitudes en se concentrant sur AMD et Intel et maintenant sur Nvidia. Les plus intelligents adopteront une approche de portefeuille pour leur activité et surveilleront leurs choix d’une manière qui ressemble à celle des gestionnaires de fonds spéculatifs ou des investisseurs en capital-risque. Nous n’avons pas l’intention d’être alarmistes, car cela fait en grande partie partie de la cyclicité de l’électronique. Au fil du temps, l’industrie trouvera un nouvel équilibre, mais les prochaines années s’annoncent beaucoup plus chaotiques.