Derniers ajouts

Unveiling the future of AI at Publicis Groupe

Cette vidéo est mythique, je ne peux m’empêcher de la ressortir 11 mois plus tard : c’est la vision de Publicis sur l’IA en janvier 2024. Le grand boss fait une démo d’un produit qui n’existe pas (on m’a dit chez Publicis, “ah oui c’était des mock-up” avec un petit air pincé tout de même) et l’arrivée d’un MVP pour juin 2024 à Vivatech. C’est dommage, parce que c’est très bien vu. Mais je n’ai pas entendu grand-chose sur l’exécution. La vidéo a été modifiée en mai 2024, et d’après le transcript le MVP est maintenant prévu dans la seconde partie de 2024. Vous ne pensez tout de même pas que… ? Non ! Pas à l’ère de la transparence et de l’éthique que nous vivons !

À Arcachon, la mairie offre un abonnement payant à ChatGPT à tous les habitants

Un maire, ancien avocat, conscient de la révolution de l’IA, l’offre à tous ses administrés (qui le demandent) pour les aider et faire progresser le numérique sur sa population de cinquantenaire. Cela devrait être aussi la première étape dans les entreprises ? Avant de se lancer sur des “POC” déceptifs parce que peu réfléchis ? La limite de la technologie est l’humain. Autant commencer par là ?

Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools

Fascinante étude qui prend enfin le temps d’entrer sur des tests très précis et documentés de la performance des modèles d’IA dans le juridique. Un clan fermé d’acteurs très bien installés et financés et pourtant des performances très éloignées de leur discours marketing. Bien sûr que les progrès vont venir, mais pourquoi faire croire que les hallucinations n’existent plus, même avec du RAG et surtout dans un domaine aussi sensible que le juridique ?
Si vous voulez éviter les 38 pages, les principaux passages en 3 ou 4 pages…

Yann Ferguson (LaborIA)- Etudier le réel impact de l’IA au travail

Discussion intéressante avec Yann Ferguson de LaborIA. Il rappelle l’importance des valeurs de l’entreprise ou des équipes, bref de l’humain et des organisations avant de se jeter sur la solution technique. Exemple assez illustrant des “boroscopeurs” avec deux équipes faisant exactement le même métier, mais à la culture de management différente et donc leur réaction opposée à l’IA.

How artificial intelligence is changing the reports US police write

On reste un peu sur sa faim dans ce cas d’usage de l’IA dans la police de Californie, notamment pour savoir si les biais des modèles n’influent pas la rédaction des rapports de police (qui vont faire prendre des décisions aux juges) ou si au contraire la machine est plus objective que l’humain. Mais cela pose de bonnes questions sur des sujets dans lesquels les erreurs de l’IA vont avoir des conséquences réelles. Sur des degrés de dangerosité moindre, le même problème se pose dans quasiment toutes les entreprises.

Longtime policy researcher Miles Brundage leaves OpenAI

On ne va plus tenir la liste de tous les départs de OpenAI mais ça se confirme, le projet “non-profit” et sensible aux risques de l’IA sur notre monde n’est vraiment plus d’actualité. Maintenant, ils perdent l’un des responsables des red team (qui testent la sécurité des modèles) qui dit poliment, je ne sers plus à rien… Décidément une semaine sour le signe de la sécurité des IA.

Anthropic’s new AI model can control your PC

Ce n’est pas le premier qui s’y essaie, nombreux sont les services pour prendre la main sur votre ordinateur. Mais la différence ici, c’est que c’est un LLM avec le peu de précisions qu’on leur connait. Il peut faire des choses beaucoup plus dangereuses qu’un chatbot enfermé dans sa petite fenêtre. Cela va faire bien sûr avancer le sujet des Agents IA, mais avec quelle prise de risque ?

Sabotage evaluations for frontier models

Beaucoup de sentiments contradictoires à la lecture de cette page d’Anthropic le créateur du modèle Claude. Ils rappellent que dans le nucléaire ou l’automobile, on ne peut pas sortir un modèle sans tester sa dangerosité. Mais c’est fait par de la régulation dans ces secteurs. Dans le monde l’IA, les fournisseurs de modèles s’arrangent comme ils veulent. Alors oui, c’est bien que Anthropic partage ses mesures de contrôle, mais est-ce vraiment à lui de le faire ? Et une semaine avant d’annoncer Claude 3.5 qui prend le contrôle de votre ordinateur pour agir dans le monde physique…

What is a “cognitive architecture”?

Sujet peut-être un peu technique : les “cognitive architecture” expliquée par LangChain. Cela reste simple et vaut le coup de bien comprendre les différents modèles, du 100% humain au 100% autonome. Aucune solution n’est meilleure qu’une autre, tout va dépendre du problème à résoudre. On visualise aussi qu’une confusion peut se créer : beaucoup de workflow sont connus et prévisibles, l’autonomie d’un agent pour décider quelle est la prochaine étape n’est pas nécessaire, un bon vieux (no)code est bien plus frugal et maîtrisable.