The Next 10 Years Will Be About the AI Agent Economy

Vision très intéressante de Nfx (comme toujours) : la création d’agent va devenir simple, ce n’est pas là que la valeur va se créer. Dommage pour toutes les boîtes financées cette année sur ce sujet ! Là où la valeur va résider, c’est dans les marketplace d’agents (le Malt des agents IA). Parce que le client principal, ce sera la petite et moyenne entreprise, le plus gros marché et de loin devant les grandes entreprises.

AI chatbots unable to accurately summarise news, BBC finds

On le sait (nous), la GenAI n’est pas algorithmique, mais générative, elle propose à chaque question une version différente en mode bullshit (pas d’insulte, elle a été conçue pour convaincre sans comprendre de quoi elle parle). Donc quand la BBC mesure que 51% des résumés de news sont sujets à problème, personne ne devrait être surpris ? Surtout qu’elle ne sait pas faire la différence entre un article, une opinion ou une blague. Je trouve le résultat assez bon en fait !

LLMs Can Easily Learn to Reason from Demonstrations Structure, not content, is what matters!

Un papier de recherche un peu ardu qui éclaire un aspect intéressant des modèles de raisonnement (o1, Deepseek) : en générant des longs Chain of Thought par un autre LLM comme donnée d’entraînement, les capacités de raisonnement s’améliorent grandement. Cela semble rester un mystère même pour ces chercheurs… Un peu comme quand les Transformers créés pour de la traduction se sont mis à être capable de répondre à des questions pour amener à ChatGPT…

AI Agents Are Here. What Now?

Encore une clarification (bienvenue) de HuggingFace sur les agents et surtout les agents autonomes (agentic). Probablement la version la plus détaillée trouvée à date pour lister les différents agents, les bénéfices/risques et des recommandations fortez sur les règles notamment éthiques à respecter.

The Five Stages of AI Agent Evolution

NFX propose une vision détaillée sur l’évolution des “agents IA” en 5 étapes : du simple copilote à l’autopilote d’aujourd’hui, jusqu’aux agents créatifs capables d’innover en business. L’aboutissement ? Des entreprises 100% AI. Le timing reste le grand mystère : certains parient sur quelques années, d’autres jugent ça impossible. Perso, je mise sur un entre-deux !

On DeepSeek and Export Controls

Le PDG d’Anthropic (créateur de Claude) nous éclaire sur Deepseek : malgré une approche similaire à o1 via le reinforcement learning, les améliorations restent incrémentales plutôt que révolutionnaires. Ses inquiétudes d’un monde IA bipolaire (US-Chine, merci l’Europe n’est pas là !) s’il n’y a pas de restrictions américaines sur l’export des puces me font penser à Toyota. Après 1945, avec des moyens limités, ils ont dépassé le géant General Motors… Les contraintes sont parfois un cadeau. L’investissement infini, un frein.

MicroAgents: Exploring Agentic Architecture with Microservices

Microsoft se lance à son tour dans la définition des agents IA, introduisant les notions de mono-agents et micro-agents. Pas sûr que cela clarifie le marché : les micro-agents exécutent des tâches basiques sous la supervision d’un manager agent, tandis que les mono-agents gèrent tout d’un bloc. L’occasion pour eux de promouvoir leur approche de micro-services. Pourquoi pas, mais on aurait pu s’en passer !

Building effective agents

Au tour d’Anthropic de partager sa vision des Agents, en distinguant clairement les workflows (orchestration de LLM selon un schéma défini) et les agents (LLM autonomes dans leurs processus et outils). La partie sur les agents reste limitée, reflétant leur stade de développement. En revanche, les cas d’orchestration “classiques” sont bien détaillés, montrant l’étendue des possibilités déjà accessibles sans recourir à des agents autonomes.

Google maps the future of AI agents: Five lessons for businesses

Encore une tentative de précision de ce qu’on entend par Agent IA. C’est Google qui s’y colle (pour bien sûr nous proposer ses technologies ensuite, mais le contenu n’en reste pas moins intéressant). Un agent est un LLM avec des capacités de raisonnement et donc de prise de décision, auquel on donne accès à des services externes via API. C’est une vue peut-être limitée avec l’avantage de correspondre au présent, sans être totalement futuriste.

Language models still can’t pass complex Theory of Mind tests, Meta shows

Dans la confusion du mot “intelligence” que peut donner l’impression qu’un perroquet stochastique pourrait avoir en imitant des réponses récupérées dans les données d’entraînement (un LLM donc), il est bon de revenir sur des tests plus précis. Celui-là mesure la capacité à comprendre un humain. Les performances restent à 9% pour l’instant. Cela ne veut pas dire que cela ne va jamais marcher, juste qu’on surestime les performances à court terme. Mais n’oublions pas qu’on sous-estime les performances à long terme selon la loi de Lamara.