Derniers ajouts

AI-Driven Team Formation for Relational Well-Being in the Yoma Project

Il fallait y penser : composer des équipes plus diverses et complémentaires grâce à l’IA augmente le bien-être des membres et le résultat produit. Le terrain de l’étude est aussi intéressant : c’est dans le cadre de Yoma, une initiative soutenue par l’UNICEF visant à former les jeunes en Afrique.
A l’échelle d’une entreprise, ça pourrait être intéressant d’analyser la diversité et la complémentarité grâce à l’IA. On pourrait avoir de mauvaises surprises et tenter d’équilibrer sur les nouvelles embauches… Pas juste pour le principe (juste) : le bien-être des équipes est directement corrélé à la performance.

IA : 75 % des entreprises n’ont pas atteint leur retour sur investissement prévu

Encore un ajout à la collection des études qui montrent que la mise en place de l’IA est complexe et dans tous les cas, les gains attendus, sur-estimés. Elle montre aussi que 67% des dirigeants interrogés le font par peur de ne pas “rester à la traîne”. Le FOMO peut coûter cher… En plus du coût des investissements gâchés dans ces projets, perdre confiance dans l’IA pourrait ralentir les futures innovations.

This AI-powered startup studio plans to launch 100,000 companies a year — really

Après la “one person-one billion dollars company” (Licorne), voici la “one person – one million dollars company” (une donkeycorn). Un start-up studio vise à lancer 100 000 entreprises par an. Au centre de tout ça, encore l’IA et le vibe-coding. Et toujours la même réflexion : les entreprises devraient s’en inspirer pour leurs nouveaux projets. Et vite : la concurrence va être féroce. Demain matin, vous trouverez un nouveau concurrent, approchant le PMF depuis son coworking…

La confiance, enjeu majeur de l’adoption de l’IA

Heureusement, les utilisateurs n’ont pas une confiance totale dans l’IA, c’est le contraire qui serait inquiétant. Plus on s’en sert, plus, on se rend compte qu’il faut garder son esprit critique. Et c’est bien normal, c’est une technologie. Par contre, cette étude de KPMG montre qu’en France, on est comparativement moins formés et moins critiques. Et chez nous, 57% ne disent pas à leur manager que le contenu produit l’a été avec l’aide de l’IA. 53% savent que cela pourrait mettre la sécurité de l’entreprise à risque. On les accompagne pour nous éviter des catastrophes ?

Study looking at AI chatbots in 7,000 workplaces finds “no significant impact”

Etude très intéressante faite au Danemark sur 25 000 employés pour mesurer l’impact des chatbot sur leur productivité et leurs salaires. Confirme les prévisions du prix Nobel d’économie Daron Acemoglu : on parle de quelques pourcents. Les raisons ? Le hype ne se réalise jamais aussi vite (Loi d’Amara) et l’absence de structuration dans le déploiement rend les choses peu efficaces. Deux sujets à se rappeler en permanence quand on rêve de gains faramineux sur son entreprise.

L’IA : véritable facteur de progrès ou vecteur d’inégalités ?

Shame on us! La Tech des vingt dernières années était loin d’être équilibrée entre femmes et hommes. Avec l’IA, c’est encore pire : 22% des femmes dans l’écosystème de l’IA, et seulement 33% d’utilisatrices de ChatGPT au niveau mondial ! Donc biais à tous les étages dans l’entraînement des modèles et la moitié (un peu plus) de la planète qui passe à côté de l’IA…

Is nuclear energy the answer to AI data centers’ power consumption?

Au moins maintenant, c’est clair : en 2030 le nucléaire (dont on ne cesse de nous parler comme d’une solution) ne couvrira que 10% des besoins énergétiques des data-centers. Les énergies renouvelables feront ce qu’elles peuvent et le reste sera bien carboné. Et rajoutera 0,6% de la consommation globale à la facture énergétique. Bizarrement, personne ne pense à éviter ça. C’est comme ça, on verra bien ! Il n’y aurait pas des solutions pour l’éviter ? Soit technologique, soit régulation, probablement un mélange des deux ?

Apple’s ‘AI Can’t Reason’ Claim Seen By 13M+, What You Need to Know

Une vidéo de 10 minutes qui démonte les conclusions du papier de recherche d’Apple sur les modèles de raisonnement. Ce qui est vraiment malaisant, c’est qu’elle doit réexpliquer ce qu’est un LLM aux chercheurs d’Apple. Certains y verront causalité avec leur position sur le marché de l’IA… C’est surtout l’occasion de mieux comprendre ce qu’on appelle raisonnement en IA : pour l’instant cela reste l’imitation d’un raisonnement. Et c’est déjà très impressionnant. L’AGI n’est effectivement pas pour demain.