L’influence profonde que GenAI est en passe d’exercer sur les entreprises n’est plus remise en question
Le point de vue de l’éditeur : En tant que personne ayant étudié et suivi de près l’évolution de GenAI et la façon dont elle est déployée dans des environnements commerciaux réels, je ne cesse de m’étonner de la rapidité avec laquelle le paysage évolue. Des idées et des concepts qui semblaient lointains il y a quelques mois – comme la possibilité d’exécuter des modèles de base directement sur les appareils clients – sont déjà là. Dans le même temps, certaines de nos premières attentes quant à la façon dont la technologie pourrait évoluer et être déployée évoluent également – et les implications pourraient être importantes.
Dans le domaine des avancées technologiques de base, en particulier dans le déploiement de GenAI, il est de plus en plus reconnu que le processus en deux étapes impliquant la formation du modèle et l’inférence ne se déroule pas comme prévu initialement.
Il est devenu évident que seules quelques entreprises sélectionnées construisent et forment leurs modèles fondamentaux à partir de zéro. En revanche, l’approche prédominante consiste à personnaliser des modèles préexistants.
Certains peuvent considérer que la distinction entre la formation et la personnalisation de grands modèles linguistiques (LLM) est simplement sémantique. Cependant, la réalité suggère un impact bien plus important.
Certains peuvent considérer que la distinction entre la formation et la personnalisation de grands modèles linguistiques (LLM) est simplement sémantique. Cependant, la réalité suggère un impact bien plus important. Cette tendance souligne que seules les plus grandes entreprises, disposant de ressources et de capitaux suffisants, sont capables de développer ces modèles dès leur création et de continuer à les affiner.
Des entreprises telles que Microsoft, Google, Amazon, Meta, IBM et Salesforce, ainsi que les entreprises dans lesquelles elles choisissent d’investir et de s’associer, comme OpenAI, Anthropic, etc., sont à l’avant-garde du développement de modèles originaux. Bien que de nombreuses startups et petites entités tentent avec diligence de créer leurs modèles fondamentaux, il existe un scepticisme croissant quant à la viabilité de ces types de modèles commerciaux à long terme. En d’autres termes, le marché ressemble de plus en plus à un autre cas de grande entreprise technologique en pleine expansion.
Les raisons de cela vont au-delà des facteurs typiques de disponibilité des compétences, d’expérience avec la technologie et de confiance dans les grandes marques. En raison de la portée et de l’influence considérables que les outils GenAI commencent déjà à avoir, les questions juridiques et les facteurs connexes suscitent des inquiétudes croissantes. Pour le dire simplement, si les grandes organisations veulent commencer à dépendre d’un outil susceptible d’avoir un impact profond sur leur activité, elles doivent savoir qu’il existe une grande entreprise derrière cet outil sur laquelle elles peuvent rejeter la faute en cas de problème. faux.
Ceci est très différent de nombreux autres produits technologiques nouveaux qui ont souvent été introduits dans les organisations via des startups et d’autres petites entreprises. La portée attendue de GenAI est tout simplement trop profonde au sein d’une organisation pour être confiée à quelqu’un d’autre qu’à une grande entreprise technologique bien établie.
Et pourtant, malgré cette préoccupation, l’un des autres développements surprenants dans le monde de GenAI a été l’adoption et l’utilisation rapides de modèles open source provenant d’endroits comme Hugging Face. Les fournisseurs de technologie et les entreprises s’associent à Hugging Face à un rythme incroyablement rapide en raison de la rapidité avec laquelle de nouvelles innovations sont introduites dans les modèles ouverts qu’ils hébergent.
Alors, comment concilier ces évolutions apparemment incongrues et incompatibles ? Il s’avère que de nombreux modèles de Hugging Face ne sont pas entièrement nouveaux mais sont plutôt des personnalisations de modèles existants. Ainsi, par exemple, vous pouvez trouver des éléments qui exploitent quelque chose comme le modèle open source et populaire Llama 2 de Meta comme base de référence, mais qui sont ensuite adaptés à un cas d’utilisation particulier.
En conséquence, les entreprises peuvent se sentir à l’aise en utilisant quelque chose qui provient d’une grande entreprise technologique mais qui offre la valeur unique à laquelle d’autres développeurs open source ont ajouté. C’est l’un des nombreux exemples des opportunités et des avantages uniques que permet désormais le concept de séparation du « moteur » de l’application – ce que GenAI permet aux développeurs de faire.
Du point de vue du marché, cela signifie que les plus grandes organisations technologiques se battront probablement pour produire les meilleurs « moteurs » pour GenAI, mais que d’autres entreprises et développeurs open source pourront ensuite exploiter ces moteurs pour leur propre travail. Les implications de cela seront probablement importantes en ce qui concerne des éléments tels que les prix, le packaging, les licences, les modèles commerciaux et l’aspect lucratif de GenAI.
À ce stade précoce, on ne sait pas exactement quelles seront ces implications. Un développement probable, cependant, est la séparation de ces moteurs de modèles de base et des applications ou des personnalisations de modèles qui les recouvrent lorsqu’il s’agit de créer des produits – quelque chose qui mérite certainement d’être surveillé.
Cette séparation des modèles des applications peut également avoir un impact sur la manière dont les modèles de base s’exécutent directement sur les appareils. L’un des défis de cet exercice est que les modèles de base nécessitent beaucoup de mémoire pour fonctionner efficacement. En outre, de nombreuses personnes pensent que les appareils clients devront exécuter plusieurs modèles de base simultanément afin d’effectuer toutes les différentes tâches que GenAI est censé permettre.
Le problème est que, même si les spécifications de mémoire des PC et des téléphones ont certainement augmenté au cours des dernières années, il sera toujours difficile de charger plusieurs modèles de base en mémoire en même temps sur un appareil client. Une solution possible consiste à sélectionner un modèle de base unique qui alimente plusieurs applications indépendantes. Si cela s’avère être le cas, cela soulève des questions intéressantes sur les partenariats entre les fabricants d’appareils et les fournisseurs de modèles de base et sur la capacité de se différencier entre eux.
Les technologies en croissance rapide telles que RAG (Retrieval Augmented Generation) offrent un moyen puissant de personnaliser les modèles à l’aide des données propriétaires d’une organisation.
Outre les changements dans la formation des modèles, des progrès significatifs ont été réalisés dans la technologie d’inférence. Par exemple, des technologies telles que RAG (Génération augmentée de récupération) fournissent une méthode dynamique de personnalisation du modèle à l’aide des données propriétaires d’une organisation. RAG fonctionne en intégrant une requête standard à un grand modèle de langage (LLM) avec des réponses générées à partir du cache de contenu unique de l’organisation.
En d’autres termes, RAG applique les règles d’interprétation d’un modèle entièrement formé pour sélectionner le contenu pertinent, construisant des réponses qui fusionnent ce mécanisme de sélection avec les données exclusives de l’organisation.
La beauté de cette approche est double. Premièrement, cela facilite la personnalisation du modèle de manière plus efficace et moins gourmande en ressources. Deuxièmement, il atténue les problèmes tels que le contenu erroné ou « halluciné » en recherchant les réponses directement à partir d’un ensemble de données sur mesure, plutôt qu’à partir du pool de contenu plus large utilisé pour la formation initiale du modèle. En conséquence, l’approche RAG est rapidement adoptée par de nombreuses organisations et semble être un catalyseur clé pour les développements futurs. Il transforme notamment l’inférence en réaffectant les demandes de ressources informatiques du cloud vers les centres de données locaux ou les appareils clients.
Compte tenu du rythme rapide des changements dans le secteur GenAI, les arguments présentés ici pourraient devenir obsolètes d’ici l’année prochaine. Néanmoins, il est évident que des changements importants sont en cours, nécessitant un changement dans les stratégies de communication du secteur. Passer de l’accent mis sur la formation et l’inférence de modèles à celui qui met l’accent sur la personnalisation des modèles, par exemple, semble tardif, compte tenu des réalités du marché actuel. De même, fournir davantage d’informations sur des technologies telles que RAG et leur influence potentielle sur le processus d’inférence semble également essentiel pour contribuer à éduquer le marché.
L’influence profonde que GenAI est en passe d’exercer sur les entreprises n’est plus remise en question. Pourtant, la trajectoire et la vitesse de cet impact restent incertaines. Par conséquent, les initiatives visant à informer le public sur l’évolution de GenAI, grâce à des messages précis et perspicaces, seront extrêmement importantes. Le processus ne sera pas facile, mais espérons que davantage d’entreprises seront prêtes à relever le défi.
Bob O’Donnell est le fondateur et analyste en chef de TECHnalysis Research, LLC, une société de conseil en technologie qui fournit des services de conseil stratégique et d’études de marché au secteur technologique et à la communauté financière professionnelle. Vous pouvez le suivre sur Twitter @bobodtech