Derniers ajouts

601 real-world gen AI use cases from the world’s leading organizations

Bon ok, c’est du marketing de Google. Même si on n’a aucune idée du périmètre par rapport à l’année précédente, ils rassemblent ici 601 cas d’usages d’IA d’entreprises utilisant les produits Google. C’était 101 l’année dernière. Déjà, on a un indice que ces chiffres ne veulent rien dire, one-o-one, vous l’avez ? Mais une source à conserver pour venir chercher des cas d’usages sur lesquels on patine un peu.

Métiers du journalisme audiovisuel et IA/IA générative : état des lieux et projections

Une étude en forme de cas d’usages de l’IA dans les métiers de l’audiovisuel qui n’oublie pas les défis d’organisations et de conduite du changement. Elle pointe comme dans la plupart des secteurs une différence de vue entre les directions et les équipes : les premiers y voient gains de productivité ou nouveaux services, les seconds plus de confort à périmètre équivalent. Pas besoin de choisir son camp, aucun n’a totalement raison.

Meta aurait triché avec sa nouvelle intelligence artificielle Llama 4

Meta aurait benchmarké un autre modèle sur la LMArena que celui livré. Ce ne seraient pas les premiers, ni les derniers à optimiser leur modèle pour bien se positionner dans un benchmark qui reste imparfait. Cela a le mérite de mettre un peu de pression sur les fournisseurs de modèles et pour nous autres entreprises, de nous rappeler ne pas prendre ces benchmarks comme un fait, mais plutôt comme une hypothèse (à vérifier donc). En périphérie, on observe que le débat sur l’AGI sonne vraiment creux si on n’est même pas capables de se mettre d’accord sur la performance des modèles actuels.

Wells Fargo’s AI assistant just crossed 245 million interactions – no human handoffs, no sensitive data exposed

La banque américaine Wells Fargo a osé ce que tout le monde rêve de faire : un chatbot autonome, sécurisé qui a opéré 245 millions d’interactions avec ses clients. Et on parle d’opérations sur des comptes en banque… Surprise, 80% de l’usage est en espagnol. Le secret ? “Poly-model and poly-cloud” et donc une grosse couche d’orchestration. Et surtout aucune donnée sensible exposée aux LLM. Juste à côté, la banque City reste toujours bloquée par ce sujet. Sans surprise pour le coup, tout réside dans l’approche avant de se jeter sur le code.

Meta Neuroscientist King: “Some of the concepts like reasoning may need to be re-evaluated”

Un chercheur en neuroscience chez Meta partage une idée déjà exprimée ailleurs : la course au plus gros LLM n’améliorera probablement pas les performances, notamment sur la partie raisonnement (le hype du moment). Il faudra sûrement une rupture technologique comme les Transformers en 2017. Vu le nombre de sociétés qui travaillent à une approche différente des LLM (notamment Deepmind) cela pourrait arriver rapidement. Avant ça, testons, mais restons prudents sur les capacités en conditions réelles en entreprises des agents autonomes…

Slopsquatting: One in five AI code snippets contains fake libraries

Au moment où toute la communauté de développeur se tourne vers la génération de code par l’IA, cette étude rappelle la nécessité de tout vérifier. 20% des “Packages” ajoutés dans le code n’existent pas. Cela donne une idée de la précision actuelle et reste cohérent avec le niveau d’hallucination constaté sur les cas précis. C’est aussi une brèche pour les hackers qui peuvent créer ces packages dont les noms reviennent souvent pour y mettre du code malicieux.

The vibe coding paradox

Une réflexion sur l’impact que le vibe coding ou toutes facilités apportées par l’IA aura dans la création de nouveaux modèles. “Stop blitzscaling, start tinkering instead” cela fait du sens et pas que pour les start-ups : l’organisation des entreprises va devoir s’adapter. Ce ne sont plus des armées de développeurs qui sont l’avantage compétitif, mais une fine connaissance des besoins et une itération la plus rapide possible dans le déploiement.

How People Are Really Using Gen AI in 2025

Une fois n’est pas coutume : intéressant de regarder l’évolution de l’IA du côté du grand public pour anticiper les usages dans l’entreprise. Toujours plus long à venir. On y découvre que l’accompagnement psychologique qui était déjà en deuxième place passe en premier en 2025. En entreprise, ça commence, mais on reste coincé dans la perception qu’une machine est moins bonne qu’un humain. Or à un niveau limité et contrôlé, c’est l’inverse. Y penser dans une réflexion sur le support client par exemple…

12 Graphs That Explain the State of AI in 2025

Le 2025 AI Index de Stanford University est une somme de 500 pages où vous trouverez les principaux thèmes abordés dans cette veille. Vous aurez les meilleurs passages ici. Une chose que j’avais loupée : le Humanity Last Exam qui mesure la capacité de raisonnement humain. o1 le meilleur arrive à 8% de pertinence. En revanche, avec le Planbench qui mesure la disposition à résoudre des problèmes de planification, o1 arrive à 98%. On est donc loin de l’AGI, mais très proche des capacités de raisonnement nécessaire à la plupart des entreprises.