Microsoft’s CEO of AI Mustafa Suleyman predicts GPT-6 needed for reliable AI actions

Où l’on reparle des agents autonomes (différents des agents conversationnels). Il faudra encore deux ans et 100 fois plus de puissance de calcul pour passer de 80% de précision à 99%. Pour une fois un vendeur qui dit qu’on n’y est pas ! Ca doit être une mise en abyme pour toutes ces entreprises qui croient que les “agentic worflow” sont déjà là…

Paris-based AI startup Mistral AI raises $640M

Clairement un acteur à suivre à la fois sur sa stratégie d’IA Open (source) et fermées (comme les OpenAI and co). La liste d’investisseurs est impressionnante et le besoin de financement évident pour les modèles de fondation. C’est aussi une réussite formidable pour une start-up française et il en faudrait plus. Mais on reste un peu dubitatif quand même sur la notion de souveraineté poussée au début par Mistral (et Macron). Cette boîte est entrée dans la cour des grandes et ne sera probablement plus utile pour son pays d’origine

Stanford study finds AI legal research tools prone to hallucinations

Un rappel (contraire au marketing ambiant) : le RAG n’est pas la panacée. Grâce à lui un LLM fait moins d’erreurs, mais il en fait toujours. Cette étude qui teste les solutions professionnelles dans le juridique montre un taux d’erreur entre 17 et 33%. Les éditeurs rappellent à raison que le but n’est pas de remplacer les juristes, mais de les aider. Mais important de garder ce point en tête : l’IA générative n’atteint pas l’exactitude (et ce n’est pas son but).

Nvidia value surges past $3tn and overtakes Apple

Nvidia devient la deuxième société la mieux valorisée du monde, faisant passer Apple en troisième position. Apple était en première position avant l’IA. C’était déjà fait dépasser par Microsoft (l’insulte !). Et comme Google, paie cher son manque d’exécution. Mais l’histoire n’est jamais finie… En tout ça montre qu’une belle bulle est en train de se former. Chouette !! On va revivre les années 2000 !

Google’s AI summaries cause headaches and spawn memes

Un enseignement du cas Google, qui introduit l’IA dans son moteur de recherche : une IA générative (Gen AI) peut se tromper. Même s’il est facile de s’amuser des erreurs présentées, cela doit surtout nous faire réfléchir sur le fait que ces erreurs proviennent souvent de la qualité des données d’entraînement et de l’incapacité de l’IA à comprendre réellement le contenu qu’elle ingère. La Gen AI fonctionne, et fonctionnera encore probablement un temps, dans des domaines où l’erreur est permise, voire un avantage, comme dans la créativité. Mais elle n’est pas (encore) adaptée là où les résultats doivent être 100 % exacts et exhaustifs.

Mapping the Mind of a Large Language Model

Il est toujours utile de rappeler que les créateurs de LLM ne comprennent pas entièrement ce qui se passe à l’intérieur de la ‘boîte noire’. Ainsi, Anthropic a étudié comment son modèle associe les concepts. Il est également important de rappeler qu’OpenAI a découvert que plus un modèle est alimenté en données, plus il semble devenir intelligent. Cette compréhension est indispensable pour savoir comment exploiter les modèles dans nos activités…