Mon premier paper
Je suis archi nul en maths. C’est pas grave, j’en ai fait mon deuil à quarante et un an. Mais cet aprem, j’ai écrit une équation et je n’en suis pas peu fier !
Ce qui suit est de l’ordre de l’intuition: a-t-on à faire dans le domaine de l’IA générative à une crise de la demande : beaucoup de modèles fondationnels, en libre service et à moindre coût, une technologie qui se généralise notamment via l’open source, une tonne de financements, une attention média folle etc…A tel point qu’aujourd’hui, sauf si vous avez sélectionné votre LLM de prédilection, vous pouvez avoir le vertige avant de savoir quoi demander, à qui et comment. D’où le terme Na ci-dessous qui désigne une quantité de réponses faramineuse aujourd’hui disponible. Coût et capacité de serveur mis à part, les modèles de langage sont en mesure de générer de la réponse à l’infini ∞ (trop beau ce smiley). Pourtant, dans des systèmes AI powered, l’objectif, la question, le prompt sont ultra stratégiques, pire, existentiels, et de ce fait supérieurs en importance par rapport aux résultats (c’est une hypothèse). Il y aurait donc un déséquilibre :
Sauf que le business model des LLMs repose sur la présence de questions qui viendront rendre utiles ces réponses.Une réponse sans question, c’est un dogme et le fanatisme. Un chatGPT sans prompt c’est 6.6 milliards de dollars jetés par la fenêtre. Une distribution en masse B2C de chatGPT a assuré à Open AI une adoption vertigineuse qui a déjà été commentée mille fois. Côté B2B, c’est plus compliqué parce qu’il faut savoir quoi demander, quelles questions poser. Et dans le business, on veut des réponses idéalement sans poser de questions, parce que c’est bien fatiguant après tout et qu’on préfère tous le baby foot et la machine à café. En somme les éditeurs de LLM sont confrontés à cette terrible équation aujourd’hui :
D’où la stratégie de distribution des éditeurs de LLM de rendre disponibles leur modèles sur un maximum de plateformes et d'applications. D’où l’importance d’un réseau de développeurs qui viendront s’emparer de la technologie et peut être donner naissance à des use cases qui renforceront l’utilisation et l’utilité des modèles. D’où aussi le rôle des cabinets de conseil qui vont chercher à révéler des use cases pertinents pour la gen AI. D’où enfin les seed prompt que vous pouvez voir sur chatGPT et autres interfaces Gen AI powered…D’où les nombreux partenariats de distribution annoncés par tous les acteurs majeurs. (All I wanna do, and a- And take your money). Etc etc etc…En d’autres termes, pour les éditeurs de LLMs, en plus de coûts inhérents à la génération de réponse, il pourrait y avoir des coûts inhérents à la génération de questions, tant la présence de questions est essentielle pour leur survie.
Or, il est fort probable que cette équation aujourd’hui soit <1. Mais comment sortir de l’ornière ? Ah si je le savais!
Option 1 : on est dans une bulle spéculative : on s’est tous un peu emballés et il n’y a pas de business suffisamment robuste pour générer de tels investissements. Trop d’offre pour pas assez de demande. Consolidation, commoditization etc…
Option 2 : Augmenter les prix. C’est risqué parce que l’adoption n’est pas encore ancrée à ce stade encore et le sens de l’histoire des prix va…dans l’autre sens.
Option 3 : Augmenter la couverture à la fois des capacités de LLMs (multimodalité etc) et augmenter le nombre de surfaces depuis lesquelles ces modèles sont accessibles. Stratégie de distribution classique mais qui a certainement un coût
Option 4 : The product magic - trouver une question à poser c’est dur, la formuler c’est pas facile, avoir le réflexe de la soumettre à un LLM encore moins. La question est alors: quelle est l’alternative aux prompts d’un point de vue product design ? Comment transformer des prompts imparfaits, difficiles à formuler, qui donnent des résultats stochastiques en constantes clikables ? C’est le x factor.
Option 5 : Les LLM participent à l’effort de questionnement (ils nous payent pour nous aider et les entreprises à prompter) et ce, jusqu’à ce que le ROI soit positif sans leur intervention. Jusqu’à ce que chatGPT devienne un verbe en somme.
Ainsi, l’équation de monétisation des LLMs pourrait ressembler à ça :
Parmi toutes les inconnues celle qui fait sans doute le plus débat est bien entendu P, où les gains de productivité sont proportionnels à l’intelligence du système, une variable exponentielle qui se situerait entre le “perroquet stochastique”, le chat de Yann Le Cun et HAL 9000. A moins qu’il suffise de mettre “Smart [placeholder]” dans vos pitches marketing mais l’approche est peut être trop risquée sur le long cours.
Je commence à avoir des sueurs froides. Je vous laisse.