Derniers ajouts

How Baby AGI 2 Reimagines AI’s Ability to Build Its Own Tools

Discussion impressionnante à écouter : Yohei montre son side project open source où à partir d’un prompt, le système code des fonctions pour activer des actions (aller chercher une information sur le web, envoyer un slack). Une sorte de système vivant qui écrit son propre code quand c’est nécessaire, sinon possède un catalogue de fonctions à utiliser. Pourrait être terrifiant, d’ailleurs Anthropic donne comme règle de ne jamais laisser une IA créer son propre code et l’exécuter en autonomie…

L’IA Éthique en pratique – Opérationnaliser votre système d’IA avec une démarche éthique

Un travail très bien fait par le Hub France IA qui reprend les principes fondateurs du Règlement Européen sur l’intelligence artificielle. Il les résume dans un tableau et donne tous les détails à regarder pour les entreprises. On entend souvent que la régulation ralentit le business. À y regarder en détail, c’est plein de bon sens et ça se fait poser les questions avant de faire n’importe quoi. Mais je comprends que ça peut gêner les partisans du “Brake things” pour voir après.

Décryptage de l’IA appliquée au Droit – Quand l’IA générative transforme le modèle des cabinets d’avocats

La réaction des avocats aux besoins des directions juridiques dans les entreprises au temps de l’IA Générative. Le sujet du modèle économique des cabinets d’avocats (au temps passé) se pose. Ça ne va pas changer que les pratiques, c’est l’ensemble du fonctionnement actuel qui est en question. Et il n’est même pas envisagé que certaines directions juridiques pourraient se passer des cabinets pour les cas simples (une majorité en volume ?).

Comment les Français utilisent ChatGPT : quatre infographies sur la place prise par l’IA dans nos vies

Une étude sur l’usage de l’IA en France et sa très large progression dans l’espace personnel. Dans les entreprises, il y a encore la moitié des salariés qui s’en servent sans le dire à leur boss. C’est le shadow IA particulièrement dangereux en termes de sécurité et particulièrement encourageant en termes d’usage futur dans les équipes… L’usage et les innovations vont venir de là. Mesdames et Messieurs les dirigeants, profitez-en en (dans le bon sens) !

The Next 10 Years Will Be About the AI Agent Economy

Vision très intéressante de Nfx (comme toujours) : la création d’agent va devenir simple, ce n’est pas là que la valeur va se créer. Dommage pour toutes les boîtes financées cette année sur ce sujet ! Là où la valeur va résider, c’est dans les marketplace d’agents (le Malt des agents IA). Parce que le client principal, ce sera la petite et moyenne entreprise, le plus gros marché et de loin devant les grandes entreprises.

AI chatbots unable to accurately summarise news, BBC finds

On le sait (nous), la GenAI n’est pas algorithmique, mais générative, elle propose à chaque question une version différente en mode bullshit (pas d’insulte, elle a été conçue pour convaincre sans comprendre de quoi elle parle). Donc quand la BBC mesure que 51% des résumés de news sont sujets à problème, personne ne devrait être surpris ? Surtout qu’elle ne sait pas faire la différence entre un article, une opinion ou une blague. Je trouve le résultat assez bon en fait !

LLMs Can Easily Learn to Reason from Demonstrations Structure, not content, is what matters!

Un papier de recherche un peu ardu qui éclaire un aspect intéressant des modèles de raisonnement (o1, Deepseek) : en générant des longs Chain of Thought par un autre LLM comme donnée d’entraînement, les capacités de raisonnement s’améliorent grandement. Cela semble rester un mystère même pour ces chercheurs… Un peu comme quand les Transformers créés pour de la traduction se sont mis à être capable de répondre à des questions pour amener à ChatGPT…

The Impact of Generative AI on Critical Thinking

Avec ChatGPT, les “knowledge workers” gagnent du temps sur la recherche d’information ou une première rédaction qu’ils doivent réinvestir dans la vérification. Avec un gros biais : moins on connait le fonctionnement de la GenAI, plus on fait confiance… La conclusion de l’étude : former ses collaborateurs est clé pour qu’ils gardent leur esprit critique, car la GenAI produit le plus souvent des contenus questionnables. Et c’est Microsoft qui finance l’étude !

How I Built an Entire App with AI in One Weekend

Le témoignage d’une application fabriquée en 48h. On pense moins à la 1 person 1 billion company qu’à l’impact que cela aura dans les entreprises. Cela redonne de la puissance au Lean, son takt et ses MVP : pour tuer la concurrence, il faut aller plus vite et plus léger. La méthode Agile est définitivement remisée au placard. Au premier meeting pour parler de l’approche avec vos équipes, votre concurrent aura déjà fait une centaine d’itérations. Cela redonne aussi le pouvoir aux équipes où l’IA favorise le bottom-up : l’innovation va enfin venir du terrain.

Modern-Day Oracles or Bullshit Machines?

Excellent cours fait par deux profs de l’Université de Washington pour comprendre l’implication de l’usage des LLM. Très loin des discours marketing ambiants, tout en étant très équilibré. Ils reviennent à l’expression bien meilleure que “hallucinations” : “bullshit”. Un LLM est conçu pour vous faire croire qu’il a raison (même avec de faux arguments), mais cela reste la prédiction du prochain mot. Un menteur sait qu’il n’a pas raison, un bullshitter ne connaît pas la vérité et s’en moque. Rassurons-nous (ou pas), les humains restent encore les rois dans ce domaine…