Why AI bias may be easier to fix than humanity’s

Nous sommes truffés de biais, nos décisions en sont influencées, ce qui fait de chacun d’entre nous des racistes, misogynes et classistes. Oui, oui, aujourd’hui dans nos entreprises. Même si on essaie de s’améliorer, avouons que les progrès sont lents. On reproche souvent à l’IA ses biais. Mais ils viennent de nous. D’où les scénarii dystopiques. Et si l’IA était la solution ? Bien entraînée, elle pourrait devenir meilleure que l’humain pour prendre des décisions sur un emploi, un prêt, etc. Cela n’engage que moi, mais je ferai plus confiance à une telle IA qu’à des humains.

La BNF prête à ouvrir ses archives pour franciser des modèles d’IA

Probablement une excellente nouvelle pour les business aussi : plus les données d’entrainement seront locales ou européennes, plus les résultats que les LLM produisent sembleront pertinents. On oublie souvent que les LLM actuels sont entrainés sur les données du Web, elles-mêmes pas représentative de la société ou l’histoire américaine. C’est d’ailleurs pour que ça que tous les acteurs essaient de négocier avec les groupes de presse. Autant dire qu’on n’a pas être surpris des “hallucinations” sur des recherches spécifiques sur l’histoire ou l’économie française.

OpenAI: Our approach to data and AI

Media Manager permettra en 2025 aux artistes et aux créateurs de contenus, y compris les médias, de revendiquer la paternité de leurs productions et de spécifier s’ils souhaitaient ou non autoriser la société à les utiliser pour entraîner ses modèles d’IA générative. Ca sent l’IA Act mais ne règle pas tout, de loin.

Many shot prompting break AI safety filters

Ah ben mince, avec les nouveaux modèles avec une fenêtre de contexte bien plus importante (notamment Gemini 1.5) qui permet de faire plus de choses sans passer par du RAG, on augmente le risque de hack !