How to Build an Ethical AI Culture

Excellent résumé dans un webinar des sujets d’éthique de l’IA dans les entreprises. C’est une recherche réalisée par un professeur du MIT qui prend surtout le cas des grandes entreprises. De manière surprenante, on ne peut pas s’empêcher de se dire que cela vaut pour toutes les autres. Y réfléchir un minimum et le partager avec ses collaborateurs et ses clients ne coûte pas grand-chose et limite grandement les risques de sorties de route. Sans oublier que les humains sont (souvent) plus biaisés que les IA, notamment dans le recrutement.

Republicans push for a decadelong ban on states regulating AI

On ne va vraiment plus vivre sur la même planète : les Républicains tentent de faire passer une loi pour bloquer toutes les mesures de régulation sur l’IA et les technologies au sens large. Bienvenu aux deep fake et aux algorithmes discriminants. Un beau cadeau pour les nouveaux copains de Trump.

Shaping Europe’s leadership in artificial intelligence with the AI continent action plan

Maintenant que tout le monde a compris le vrai visage des Tech Bros (lisez leur littérature du “Scale”, tout y est écrit) et leur meilleur pote (pour l’instant), l’Europe réagit aussi sur l’IA avec un plan agressif. On ne peut qu’applaudir, pour toutes les raisons que l’on couvre dans cette veille. Dommage qu’il faille toujours passer par l’électrochoc avant de prendre les décisions responsables. Mais soyons opportunistes : les décisions politiques aux États-Unis nous offrent une opportunité énorme de rattraper notre retard et d’accueillir les meilleurs cerveaux du monde.

This watchdog is tracking how AI firms are quietly backing off their safety pledges

Incroyable : c’est le projet d’un particulier qui surveille l’évolution des engagements de sécurité dans le développement de l’IA. On y voit ainsi OpenAI ou Google enlever les mentions s’interdisant de produire des armes. Ou toutes les sociétés ayant fait des promesses à l’AI Safety Summit à Séoul ne pas les respecter. Particulièrement dangereux quand tout le monde parle d’AGI. Cela pourrait aussi être un critère de choix pour les entreprises qui choisissent leurs modèles de fondation…

Meta déploie son outil d’intelligence artificielle conversationnel en France, qui sera disponible sur WhatsApp, Instagram et Facebook

C’est passé presque inaperçu : le chantage de Meta et d’Apple de ne pas proposer leurs services en Europe alors qu’ils refusaient d’appliquer les lois s’arrête. Meta vient, et en respectant les règles de la CNIL Irlandaise et le DSA. Beaucoup craignaient à l’époque que l’Europe soit à la traîne suite à ces coups de bluff. Mais le business a été plus fort. 450 millions d’habitants, plus riches, avec des pratiques numériques plus développées qu’aux États-Unis, ils ne peuvent vraiment pas s’en passer. A mémoriser pour la prochaine fois.

Trump plans to dismantle Biden AI safeguards after victory

Cela n’aura pas été long : Trump parle déjà d’effacer les efforts de régulation sur l’IA menés par Biden et de “deregulate whenever possible”. Avec son nouveau copain Elon Musk qui y a tout intérêt, la probabilité que cela devienne une réalité devient forte. L’EU AI Act va sembler bien seul et sera probablement à risque. On partirait dans une course à l’IA sans aucun garde-fous ? Avec les Chinois en face qui vont jouer l’escalade. Cela ferait un bel épisode de Black Mirror. Pas besoin de le produire, on va le voir en direct…

Longtime policy researcher Miles Brundage leaves OpenAI

On ne va plus tenir la liste de tous les départs de OpenAI mais ça se confirme, le projet “non-profit” et sensible aux risques de l’IA sur notre monde n’est vraiment plus d’actualité. Maintenant, ils perdent l’un des responsables des red team (qui testent la sécurité des modèles) qui dit poliment, je ne sers plus à rien… Décidément une semaine sour le signe de la sécurité des IA.

Sabotage evaluations for frontier models

Beaucoup de sentiments contradictoires à la lecture de cette page d’Anthropic le créateur du modèle Claude. Ils rappellent que dans le nucléaire ou l’automobile, on ne peut pas sortir un modèle sans tester sa dangerosité. Mais c’est fait par de la régulation dans ces secteurs. Dans le monde l’IA, les fournisseurs de modèles s’arrangent comme ils veulent. Alors oui, c’est bien que Anthropic partage ses mesures de contrôle, mais est-ce vraiment à lui de le faire ? Et une semaine avant d’annoncer Claude 3.5 qui prend le contrôle de votre ordinateur pour agir dans le monde physique…

U.S. Federal Trade Commission launches Operation AI Comply to tackle deceptive business practices

Aux Etats-Unis, l’équivalent de l’Autorité de la Concurrence et de la DGCCRF en France attaque des sociétés soupçonnées de survendre les bienfaits de l’IA. C’est bien. Mais pourquoi pas Microsoft, OpenAI ou Google quand ils truquent (un peu, parfois beaucoup) les démos pour les entreprises ? Ou quand à longueur d’événements ils dressent une situation de l’IA où tout marche à la perfection ? Car rares sont les journées on l’on ne rencontre pas un dirigeant témoignant d’un POC super existant, suivi de plusieurs mois de galère, voire l’abandon pur et simple. Et vous, qu’en pensez-vous ?