Derniers ajouts

How People Are Really Using Gen AI in 2025

Une fois n’est pas coutume : intéressant de regarder l’évolution de l’IA du côté du grand public pour anticiper les usages dans l’entreprise. Toujours plus long à venir. On y découvre que l’accompagnement psychologique qui était déjà en deuxième place passe en premier en 2025. En entreprise, ça commence, mais on reste coincé dans la perception qu’une machine est moins bonne qu’un humain. Or à un niveau limité et contrôlé, c’est l’inverse. Y penser dans une réflexion sur le support client par exemple…

12 Graphs That Explain the State of AI in 2025

Le 2025 AI Index de Stanford University est une somme de 500 pages où vous trouverez les principaux thèmes abordés dans cette veille. Vous aurez les meilleurs passages ici. Une chose que j’avais loupée : le Humanity Last Exam qui mesure la capacité de raisonnement humain. o1 le meilleur arrive à 8% de pertinence. En revanche, avec le Planbench qui mesure la disposition à résoudre des problèmes de planification, o1 arrive à 98%. On est donc loin de l’AGI, mais très proche des capacités de raisonnement nécessaire à la plupart des entreprises.

Reflexive AI use isn’t optional anymore

Ce mémo du CEO de Shopify est plein de bon sens et donne une vision, une direction claire sur ce que l’IA change dans le savoir de l’entreprise. Dommage que les commentaires soient encore en mode l’AI va exclure. C’est plutôt la vision inverse.

Large Language Models Pass the Turing Test

C’est un symbole plus qu’une réalité, mais il faut noter que les IA réussissent maintenant le test de Turing. Datant de 1950, on reconnait le génie du bonhomme, mais pas forcément sa pertinence aujourd’hui. À comparer à toutes les autres études récentes qui rejettent la notion d’intelligence dans l’IA beaucoup plus pertinente.

Shaping Europe’s leadership in artificial intelligence with the AI continent action plan

Maintenant que tout le monde a compris le vrai visage des Tech Bros (lisez leur littérature du “Scale”, tout y est écrit) et leur meilleur pote (pour l’instant), l’Europe réagit aussi sur l’IA avec un plan agressif. On ne peut qu’applaudir, pour toutes les raisons que l’on couvre dans cette veille. Dommage qu’il faille toujours passer par l’électrochoc avant de prendre les décisions responsables. Mais soyons opportunistes : les décisions politiques aux États-Unis nous offrent une opportunité énorme de rattraper notre retard et d’accueillir les meilleurs cerveaux du monde.

The AI Agent Index

Le MIT a fait l’effort de comptabiliser les 67 vrais “Agents” avec une définition précise. Intéressant de voir leur définition, l’historique et les pays d’origine. Pas de surprise, tout se passe aux US, mais attention, c’est la rupture la plus importante après l’ère du ChatGPT pour les entreprises.

L’IA : muse plutôt qu’oracle

Muse plus qu’oracle, l’image fait (bien) réfléchir. Le travers de la tech, c’est qu’on se jette sur le produit, les POC. Celles et ceux qui ont le malheur de réfléchir avant de choisir la piste rouge ou noire (changer ensuite est toujours dangereux) sont taxés de manquer de pragmatisme. Les décisions irréversibles se passent pourtant souvent à cette étape. Un peu de recul ne fait pas de mal et cette lecture y participe.

This is where the data to build AI comes from

Rassurant ! Les fournisseurs de modèles ne sont plus trop capables de dire d’où vient la data et s’ils peuvent en faire un usage commercial ou pas. 90% de la data est en anglais et sur une culture anglo-saxonne : c’est trop compliqué d’entrainer un modèle prenant en compte différentes cultures. Le web est aussi à 90% en anglais. Rien ne nouveau sur le contenu, mais que se passe-t-il sur les modèles de raisonnements et l’aide à la prise de décision en entreprise ?

This watchdog is tracking how AI firms are quietly backing off their safety pledges

Incroyable : c’est le projet d’un particulier qui surveille l’évolution des engagements de sécurité dans le développement de l’IA. On y voit ainsi OpenAI ou Google enlever les mentions s’interdisant de produire des armes. Ou toutes les sociétés ayant fait des promesses à l’AI Safety Summit à Séoul ne pas les respecter. Particulièrement dangereux quand tout le monde parle d’AGI. Cela pourrait aussi être un critère de choix pour les entreprises qui choisissent leurs modèles de fondation…