AI-native software studio

Small team, big leverage. AI built in.

Eodia is a studio that builds AI-native software. We ship open-source tools with GenAI at their core — and help teams integrate copilots into their own products.

Backlog 3
AI CopilotIntegrate NL-to-SQL engine into BI tool
MApr 16
DataRAG pipeline with Ollama for internal docs
MApr 18
ProductDashboard-as-code export (YAML)
MApr 22
In Progress 2
InfraSelf-hosted LLM + Docker deployment
MApr 14
AI CopilotProactive insight suggestions
MApr 12
Done 2
DataSchema introspection + ERD generation
MApr 10
ProductReal-time collab with Yjs CRDT
MApr 8
😢 Marc rappelle...
You
M
Marc
12:34
How we work

AI copilots, from idea to production

A small, senior team that moves fast. We don’t do agencies or large teams — we bring deep AI expertise and ship with you.

AI Copilots & LLM Products

We design and build AI copilots, NL-to-SQL engines, and LLM-powered features. From prototype to production, with the guardrails that matter.

Full-stack Engineering

Modern web apps, APIs, and real-time systems. We own the full stack so AI features ship as part of the product, not bolted on.

Data & GenAI Infrastructure

RAG pipelines, vector stores, self-hosted LLMs. We set up the infrastructure so your AI features run reliably at scale.

Open Source Products

Every tool we build is open source. We believe the best software is built in the open, with a community behind it.

Why Eodia

What makes us different

A studio built around AI, open source, and direct collaboration.

AI-first

AI-first, not AI-bolted

We don’t sprinkle AI on top. Every product we build has GenAI at its core — NL-to-SQL, copilots, proactive insights.

Copilot Claude Sonnet ×

Ask anything about your database

Last 10 records Count by table Explain query
Monthly active users by country, last quarter
Joining users.org_idorgs.country and grouping by month:
SQL▶ Insert
SELECT o.country,
       DATE_TRUNC('month', u.last_seen) AS m,
       COUNT(DISTINCT u.id) AS mau
  FROM users u
  JOIN orgs o ON o.id = u.org_id
  WHERE u.last_seen >= '2026-01-01'
  GROUP BY o.country, m
  ORDER BY m, mau DESC;
Exclude internal team (@eodia.fr), sort by MAU desc
Added a filter and flipped the sort:
+ WHERE u.email NOT LIKE '%@eodia.fr' ORDER BY m, mau DESC; + ORDER BY mau DESC, m;
Applied to the editor
Which countries are growing fastest?
Top 3 by MoM growth: France +24%, Germany +18%, Japan +15%. Want me to add a LAG() window?
Perfect, running it now
Human scale

Talk to the people who build

No account managers, no intermediaries. You work directly with senior engineers who own the code.

M
Marc Engineer
Y
You Direct access
Open source

Built in the open

All our products are AGPL-licensed. Inspect the code, self-host, contribute. Transparency is not optional.

AGPL-3.0
Full stack

We own the whole stack

React, Hono, Python, Docker, LLMs. AI features ship as part of the product because we control every layer.

React Hono Python Docker Ollama
Velocity

Ship fast, iterate faster

Small team means fewer meetings, faster decisions, shorter feedback loops. We ship weekly.

v1.2.0 SQL autocomplete
v1.1.0 AI copilot
v1.0.0 Initial release
Agentic

AI agents build with us

We use an agentic methodology where specialized AI agents handle architecture, code review, QA, and implementation — orchestrated by senior engineers. 10x velocity, zero shortcuts.

A Architect
D Developer
R Reviewer
Q QA
Senior Engineer orchestrates
Self-hosted

Your data, your servers

Every tool we build runs on your infrastructure. Ollama for local LLMs, Docker for deployment. Zero data leaks.

$ docker compose up -d
Pulled eodia/dblumi:latest
Started dblumi (3s)
http://localhost:5173
What we ship

AI-native tools, built in the open

Open-source products with GenAI at their core — not as an afterthought.

Startups by Eodia

Ventures we launch

Products we build, own and operate — from idea to market.

AI-powered sports predictions

Advanced AI meets sports analytics. Pronext delivers match predictions, win probabilities, and expert analysis across football leagues worldwide. Smart betting, powered by data.

Discover Pronext
Pronext
World Cup 2026 · Quarter Final
Argentina
VS
Brazil
2 - 1 ✦ 87% AI confidence
Argentina 65% Brazil 35%
France vs Germany 1 - 0 92%
From our LinkedIn

What we think about

Ideas, lessons, and behind-the-scenes from building AI-native products.

L'IA à l'école

🎓 L'IA à l'école Pendant qu'une partie du monde débat encore de la place de l'IA à l'école, la Chine a déjà commencé à former ses enfants à l'utiliser. À Pékin, ainsi que dans plusieurs autres zones, l'IA a été intégrée au cursus scolaire dès le primaire et le collège. Le sujet devient donc très concret. On ne parle plus seulement d'initiatives isolées ou d'ateliers ponctuels. On parle d'un choix éducatif assumé : préparer les élèves à évoluer dans un monde où l'IA fera partie de l'environnement normal d'apprentissage, de travail et de décision. En France, on n'en est pas là. Il existe des expérimentations, des réflexions, des prises de parole et quelques démarches de sensibilisation. Mais on reste encore loin d'une intégration claire, massive et systémique dans le parcours scolaire. L'écart est là. D'un côté, une logique de déploiement. De l'autre, une logique d'observation et d'adaptation. La question n'est plus seulement technologique. Elle devient éducative, culturelle et stratégique. Pour ma part, je pense qu'il faut former les enfants à l'IA le plus tôt possible. Pas pour en faire des experts techniques. Pas pour remplacer les bases. Mais pour leur apprendre à comprendre cet outil, à le questionner, à l'utiliser intelligemment et à ne pas en devenir dépendants sans recul. Parce que ces enfants vont grandir dans un monde où l'IA sera partout. Ne pas les y préparer serait, à mon sens, une erreur bien plus grave que de l'introduire à l'école. Qu'en pensez-vous ? L'IA doit-elle devenir une matière à part entière à l'école ?
Read on LinkedIn

Claude code Routines

⏰ Claude code Routines Ce que je trouve intéressant avec le tout nouveau "Routines" de Claude Code, annoncées le 14 avril 2026, c'est qu'on ne parle plus seulement d'une IA qu'on sollicite ponctuellement. On parle d'une IA qu'on configure une fois, avec un prompt, une tâche et un déclencheur, puis qu'on laisse agir seule dans un cadre bien défini. On est sur une bonne partie de la promesse OpenClaw, un poil plus fermée (sans mémoire, multicanal et ouverture) Donc non, on n'est pas forcément sur un grand flow agentique ultra sophistiqué. C'est différent de Cowork également qui est une collaboration agentique sur une problématique. On est plutôt sur quelque chose de plus simple, mais peut-être plus utile : une routine IA autonome sur un cas précis. Corriger certains bugs relire du code réagir à un événement GitHub vérifier un déploiement faire du tri contrôler un résultat préparer un travail de fond 🧠 Et c'est justement pour ça que je trouve ça intéressant. Parce que cette logique peut dépasser le dev. On peut très bien imaginer demain des usages du même type pour : relire des documents classer des informations
Read on LinkedIn

Minimax 2.7 - Un modèle qui mérite qu'on s'y arrête

🚀 J'ai essayé Minimax 2.7 et… ça mérite clairement qu'on s'y arrête. On voit passer énormément de modèles. Beaucoup promettent beaucoup. Peu donnent vraiment cette impression de fluidité, de cohérence et d'utilité dès les premiers tests. Et Minimax 2.7 fait partie de ceux qui donnent envie de creuser. Ce qui m'a marqué, ce n'est pas juste la qualité brute. C'est le ressenti global : ça répond bien ça suit ça comprend et surtout, ça donne l'impression d'un modèle qu'on peut réellement mettre au travail. 🧠 C'est souvent ça, la différence entre un modèle impressionnant sur le papier et un modèle intéressant dans la vraie vie. On ne cherche pas seulement un benchmark. On cherche un comportement. Une manière de raisonner. Une capacité à rester utile dans un flux réel. Et quand un modèle donne cette sensation rapidement, ça vaut la peine de s'y attarder. 📈 Ce que ça confirme surtout, à mon avis, c'est qu'on entre dans une phase où la hiérarchie des modèles devient beaucoup moins figée. Les écarts bougent vite. Les surprises sont plus fréquentes.
Read on LinkedIn

Le mot Shipper - une nouvelle posture

🏎️ Il y a un mot que vous allez entendre de plus en plus souvent : shipper. Un shipper, ce n'est pas juste quelqu'un qui a des idées. C'est quelqu'un qui transforme une idée en quelque chose de concret. Il met en ligne. Il teste. Il ajuste. Il livre. En fait, ce n'est pas forcément la personne qui parle le mieux. C'est souvent celle qui fait avancer les choses dans le réel. 🧠 Pourquoi ce mot prend autant de place aujourd'hui ? Parce qu'avec l'IA, il devient beaucoup plus facile de passer de l'idée à l'exécution. Prototyper coder rédiger designer automatiser tester Tout cela va plus vite. Du coup, la différence entre ceux qui pensent, ceux qui planifient, et ceux qui livrent devient encore plus visible. Et c'est là que le mot shipper devient intéressant.
Read on LinkedIn

Le travail grignoté par l'IA, tâche par tâche

🧠 Le travail ne va probablement pas être remplacé par l'IA. Il va être grignoté, tâche par tâche. Et je pense que c'est une erreur de continuer à poser le débat uniquement en mode : "Quels métiers vont disparaître ?" Parce que dans la réalité, ce n'est pas comme ça que la transformation arrive. Elle arrive par petits morceaux. Un compte-rendu en moins à rédiger une analyse de plus en plus automatisée un tri d'emails confié à un agent une recherche préparatoire déléguée un reporting généré sans intervention humaine une première version de code écrite automatiquement un support client de niveau 1 absorbé par un système Aucun de ces cas ne "supprime" un métier à lui seul. Mais accumulés, ils redessinent le travail. ⚙️ C'est là que le changement devient profond Pendant longtemps, on a pensé l'automatisation comme le remplacement d'un poste ou d'une fonction entière. L'IA change la donne. Elle s'attaque beaucoup plus facilement à des fragments de travail qu'à des métiers complets. Et c'est justement pour ça qu'elle peut transformer les organisations très vite.
Read on LinkedIn

Gemma 4

🚀 Pour ceux qui ne connaissent pas encore Gemma 4, il s'agit de la nouvelle génération de modèles d'IA ouverts de Google, conçus pour être plus accessibles que les très grands modèles propriétaires, tout en offrant des capacités de plus en plus avancées. L'intérêt de Gemma 4, ce n'est pas seulement de générer du texte. C'est de proposer une IA qui peut, selon les variantes et les intégrations, aller vers des usages beaucoup plus riches : compréhension du langage analyse de documents raisonnement vision traitement de contenus multimodaux et, plus largement, intégration dans des outils métier ou personnels. Et surtout, ce type de modèle peut être installé et exploité dans des environnements plus maîtrisés, ce qui le rend intéressant pour ceux qui veulent tester, adapter ou intégrer une IA sans dépendre uniquement d'une interface fermée. 🧠 Ce que je trouve intéressant avec Gemma 4, c'est précisément ça. On parle souvent de l'IA comme si elle allait forcément rester entre les mains de quelques très gros acteurs, sur des infrastructures massives, pour des usages très centralisés. Mais des modèles comme Gemma 4 montrent une autre trajectoire : des IA puissantes, plus ouvertes, plus portables, et capables d'aller sur le terrain. Dans une entreprise, cela peut servir à analyser des documents, automatiser une partie du support, aider à la synthèse, exploiter des images, organiser l'information ou assister des équipes métier. Dans le monde agricole, on peut imaginer des usages autour de l'analyse visuelle, du suivi d'exploitation, de l'aide documentaire, de la compréhension de consignes techniques ou de l'assistance à la décision. Et à titre personnel, cela peut devenir un véritable copilote : pour apprendre, écrire, organiser, comprendre, comparer, trier, ou interagir avec des contenus plus variés que du simple texte. 📈 Ce que cela montre, au fond, c'est que l'avenir de l'IA ne se jouera pas seulement sur la taille des modèles. Il se jouera aussi sur leur capacité à être déployés, adaptés, combinés à des usages réels, et utilisés dans des contextes concrets où texte, vision, raisonnement et parfois audio commencent à se rencontrer.
Read on LinkedIn

Claude Ultraplan - Séparer penser, réviser et exécuter

🚀 Claude Ultraplan est une idée simple, mais très révélatrice de la direction que prennent les agents de code. Le principe : vous lancez une demande de plan depuis votre terminal, Claude prépare ce plan dans le cloud, vous le relisez dans une interface web plus confortable, vous commentez des sections précises, puis vous choisissez où exécuter la suite : dans le cloud ou de retour dans votre terminal. Et ce n'est pas qu'un détail d'ergonomie. 🧠 Ultraplan montre qu'on commence à séparer trois couches qui étaient jusqu'ici mélangées : penser réviser exécuter Le plan devient un vrai objet de travail, qu'on peut annoter, critiquer, affiner, puis seulement lancer. Côté usage, la mécanique est assez simple : on peut lancer Ultraplan depuis le CLI avec la commande /ultraplan suivie d'une demande ou simplement en incluant le mot ultraplan dans un prompt classique et même, dans certains cas, envoyer un plan local vers Ultraplan pour le retravailler dans le cloud. Exemple : /ultraplan migrate the auth service from sessions to JWTs 📈 À mon avis, c'est une évolution très importante pour les workflows agentiques. Parce que plus les agents deviennent capables, plus la qualité du cadrage initial devient stratégique. Et demain, une partie de la valeur ne sera peut-être plus seulement dans l'exécution du code. Elle sera aussi dans la qualité de la phase de planification collaborative entre humain et agent. Ultraplan va exactement dans ce sens. Qu'en pensez-vous ?
Read on LinkedIn

GitHub Copilot VS Code

🧑‍💻 GitHub fait franchir un vrai cap à Copilot dans VS Code. Avec la dernière vague de mises à jour, Copilot gagne un mode Autopilot en preview, capable d'enchaîner des actions sans validation manuelle à chaque étape. À cela s'ajoutent le debugging navigateur intégré, le support image et vidéo dans le chat, ainsi que des sous-agents imbriqués. Pourquoi c'est important ? Parce que Copilot cesse progressivement d'être seulement un assistant de complétion. Il devient un agent de développement plus autonome, capable non seulement de suggérer, mais aussi d'orchestrer des tâches entières. L'IDE devient un environnement agentique. On ne demande plus seulement "écris ce bout de code", on délègue de plus en plus une intention complète : corriger, tester, débugger, explorer, documenter. On passe doucement du copilote au coéquipier logiciel. Et à mon avis, c'est exactement là que se joue la prochaine étape de l'IA pour les développeurs.
Read on LinkedIn

Software par délégation

🔥 On entre dans l'ère du software par délégation Pendant des années, utiliser un logiciel voulait dire à peu près la même chose : ouvrir une interface chercher la bonne fonction cliquer au bon endroit enchaîner les étapes et produire soi-même le résultat Mais je pense qu'on est en train de changer de logique. On n'utilise plus seulement un logiciel. On commence à déléguer une intention à un agent. Et cette différence est énorme. 🧠 Avant, on disait au logiciel comment faire. Demain, on dira surtout ce qu'on veut obtenir. Prépare moi un reporting analyse cette entreprise organise ma semaine rédige une proposition compare ces offres corrige ce code planifie un rendez-vous
Read on LinkedIn

Claude Managed Agents

🚀 Claude Managed Agents Ça fait au moins une semaine que je cherche une vraie solution pour faire tourner mes agents en dehors d'OpenClaw. Pas juste les lancer. Les faire tourner pour de vrai. Avec méthode, priorité, de la fiabilité, de la sécurité, des sessions longues, une bonne gestion des permissions, des reprises propres en cas d'erreur, et une orchestration correcte quand plusieurs agents doivent collaborer. Et c'est exactement pour ça que l'annonce de Claude Managed Agents a attiré mon attention. Parce qu'au fond, aujourd'hui, le plus dur n'est plus de prototyper un agent. Ça, on sait déjà le faire. Le plus dur, c'est tout ce qu'il y a autour. Faire en sorte qu'un agent tienne dans le temps. Qu'il ait un cadre d'exécution propre. Qu'il puisse utiliser des outils sans devenir ingérable. Qu'il soit traçable. Qu'il survive aux aléas du réel. Et qu'il puisse passer du bricolage intéressant au vrai produit. 🧠 C'est là que beaucoup de projets se cassent les dents. On pense souvent que la valeur est uniquement dans le modèle. En réalité, une énorme partie de la difficulté est dans le runtime. Et c'est justement ce que semble adresser Anthropic avec Claude Managed Agents : moins de plomberie à construire soi-même
Read on LinkedIn

IA et monde de demain

Alors oui c'est long. Mais regardez, cela vaut la peine. Je ne connaissais pas le Dr laurent alexandre. Quel message!! Sénat sur une mission d'information sur l'IA du 7 avril 2026. Quelques points: 1.L'IA est réellement intelligente — il faut sortir du déni : Claude Opus 4.6 surpasse l'humain dans pratiquement tous les domaines intellectuels (médecine, stratégie, géopolitique). 2.L'écart Claude / ChatGPT est déjà significatif, avec plusieurs points de QI d'avance, une meilleure compréhension des besoins, même si ChatGPT reste très utilisé (900M d'utilisateurs/semaine). 3.Le mythe de la complémentarité homme-IA est tombé : dans de nombreux domaines, notamment la médecine, l'IA seule surpasse déjà la combinaison médecin + IA. 4.Les études de médecine sont le cas emblématique : 10 ans d'études pour un métier où médecin + IA est déjà moins performant que l'IA seule — une aberration structurelle. 5.Un basculement réglementaire se profile : dans un avenir proche, les médecins pourraient être obligés de demander l'autorisation de l'IA avant toute prescription ou diagnostic. 6.L'objectif de l'école à l'ère de l'IA doit être que "enfant + IA soit meilleur que IA sans enfant" — un objectif difficile qui nécessite un investissement massif en sciences cognitives. je mets le lien du Sénat en commentaires. et merci à Fabien_Mikol sur X grace à qui j'ai decouvert cet extrait.
Read on LinkedIn

Project Glasswing

🧠 Petit signal faible, mais à mon avis très important : Anthropic restreint l'accès à son modèle cyber le plus puissant, Mythos, via Project Glasswing, en le réservant à un cercle limité d'organisations. Ce n'est pas la news la plus "grand public". Et ce n'est pas non plus une annonce dev classique. Mais cela dit quelque chose de très clair sur la direction du marché : les modèles les plus capables ne seront peut-être pas tous accessibles en libre-service. Autrement dit, plus les capacités deviennent sensibles, plus l'accès risque d'être filtré, encadré, réservé ou conditionné. Et je pense qu'on va revoir ce schéma de plus en plus souvent. L'IA ne va pas seulement créer un écart entre ceux qui savent l'utiliser et les autres. Elle peut aussi créer un écart entre ceux qui ont accès aux modèles les plus puissants… et les autres. C'est un sujet à suivre de très près. Qu'en pensez-vous ? On va vers une démocratisation durable des modèles… ou vers un monde où les plus puissants seront de plus en plus verrouillés ?
Read on LinkedIn

GPT-5.3-Codex-Spark

🚀 OpenAI accélère encore sur le code OpenAI lance GPT-5.3-Codex-Spark, présenté comme un modèle de code ultra rapide. Le signal est clair : on n'est plus seulement dans la course au modèle le plus intelligent on est aussi dans la course au modèle le plus réactif Et dans le développement, la vitesse change tout. Quand un modèle répond en quelques secondes de moins, cela paraît anecdotique. Mais à l'échelle d'une journée de dev, d'une équipe, ou d'un agent qui enchaîne des dizaines d'actions, le gain devient énorme. ⚙️ Pourquoi c'est important ? Parce que l'IA de code n'est utile que si elle reste dans le rythme du développeur. Si elle est trop lente : on casse le flow on attend on hésite à l'utiliser on revient aux habitudes classiques Si elle est très rapide : elle devient un réflexe elle s'intègre naturellement dans l'IDE elle peut être invoquée beaucoup plus souvent et elle ouvre la porte à des workflows beaucoup plus agentiques
Read on LinkedIn

Stage développement logiciel

RECHERCHE DE STAGE DEVELOPPEMENT LOGICIEL Chers membres de mon réseau, mon fils Louis a entrepris depuis 2023 une reconversion professionnelle en intégrant l'Ecole 42. Il recherche actuellement un stage en développement logiciel afin de valider son RNCP 6. Le lien ci-dessous vous en dira plus sur son parcours et ses compétences. D'avance, merci de votre attention et de partager autour de vous son profil. HighChloeCloud
Read on LinkedIn

Pappers MCP

🚀 Pappers lance son MCP Et c'est une annonce plus importante qu'elle n'en a l'air. Pourquoi ? Parce qu'un MCP, ce n'est pas juste un connecteur de plus. C'est une façon standardisée de brancher une IA à une source de données ou à un service, pour qu'elle puisse interroger, structurer et exploiter cette ressource dans une conversation. Autrement dit, au lieu d'avoir une IA qui répond "de mémoire" ou de manière générale, on lui donne un accès propre à une brique métier. Et dans le cas de Pappers, cette brique métier est particulièrement stratégique : la donnée entreprise. 🧠 Ce que permet concrètement un MCP Un MCP permet à un agent IA de dialoguer avec un service externe de façon beaucoup plus native. L'IA peut : chercher une entreprise remonter des informations juridiques croiser des données consulter des documents raisonner sur une base structurée et s'appuyer dessus dans un workflow réel C'est important, parce que la valeur d'un agent ne vient pas seulement de son modèle. Elle vient aussi de la qualité des outils et des données auxquels il est connecté. Un LLM seul peut produire une réponse plausible.
Read on LinkedIn

90% des devs utilisent l'IA - AI Pulse Survey JetBrains

🤖 90% des devs utilisent l'IA au travail. Mais lesquels utilisent quoi ? JetBrains vient de publier les résultats de son AI Pulse Survey, mené auprès de plus de 10 000 développeurs dans le monde. Et les chiffres racontent une histoire intéressante. GitHub Copilot reste le leader en notoriété (76%) et adoption (29%), mais sa croissance stagne. C'est le géant installé que tout le monde connaît mais que personne ne chouchoute vraiment. Cursor, longtemps le challenger excitant, voit lui aussi sa progression ralentir. Il reste très connu (69% de notoriété), mais il partage désormais la deuxième place en adoption avec un nouvel arrivant. Claude Code. 18% des devs l'utilisent au travail en janvier 2026. C'est 6 fois plus qu'en avril 2025. Sa satisfaction client atteint 91% et son NPS grimpe à 54. Aux USA et au Canada, il touche déjà 24% des professionnels. Ce que ce rapport montre concrètement : les devs ne restent pas dans un écosystème par loyauté. Ils migrent vers ce qui fonctionne le mieux. L'intégration native dans un IDE ne suffit plus à fidéliser si un outil concurrent fait un meilleur travail. La vraie tendance de fond : on passe des assistants de complétion de code aux agents autonomes capables de gérer des tâches complexes en parallèle. Les entreprises qui construisent des infrastructures fermées vont avoir un problème. 74% des devs utilisent déjà des outils IA spécialisés (pas juste ChatGPT). Le marché est en train de se structurer vite. Et dans ton équipe, vous utilisez quoi en ce moment ?
Read on LinkedIn

Cursor 3 - Ce n'est plus un IDE, c'est autre chose

💡 Cursor 3 vient de sortir. Ce n'est plus un IDE. C'est autre chose. Cursor a lancé sa version 3 cette semaine. Et le changement est radical. Fini l'interface IDE classique. Cursor 3 est pensé autour des agents IA en premier, le code en second. Ce qui change concrètement L'interface s'organise autour d'une "Agents Window". Au lieu d'écrire du code ligne par ligne, tu orchestres des agents qui écrivent à ta place. Tu peux lancer plusieurs agents en parallèle. Sur des repos différents. En local ou dans le cloud. Pendant ce temps tu revues les outputs, tu valides les PRs, tu passes à autre chose. Le Git est intégré directement. Staging, commits, pull requests sans quitter l'interface. Ce que ça veut dire pour les développeurs Le métier change de focus. On passe de "écrire du code" à "orchestrer des agents qui écrivent du code". Cursor fait le pari que dans 2 ans, un dev qui gère une flotte d'agents produira 10 fois plus qu'un dev seul face à son éditeur. Et ils développent leurs propres modèles maison pour ne plus dépendre d'OpenAI ou d'Anthropic. Les chiffres qui parlent 18% d'adoption professionnelle selon l'étude JetBrains d'avril 2026. A égalité avec Claude Code. Derrière GitHub Copilot (76%) mais avec une trajectoire bien différente. La vraie compétition ne se joue plus entre les modèles. Elle se joue entre les environnements de développement. Vous avez testé Cursor 3 ? Premier retour ?
Read on LinkedIn

GenAgents - Les agents IA entrent dans une nouvelle phase

🤯 Les agents IA entrent dans une nouvelle phase. Avec GenAgents, en licence MIT, Stanford explore une idée fascinante : créer des agents génératifs capables de simuler les attitudes et comportements de vraies personnes à partir d'entretiens qualitatifs. On ne parle plus simplement d'un chatbot capable de répondre à une question. On parle d'un système conçu pour reproduire une forme de cohérence humaine à partir d'éléments biographiques, de mémoire, de réflexion et de contexte personnel. Concrètement, ces agents peuvent répondre à des questionnaires, participer à des expériences, produire des réponses ouvertes et intégrer des souvenirs dans le temps. Pourquoi c'est important ? Parce que cela ouvre un nouveau terrain pour la recherche, le design produit, l'UX research et la simulation comportementale. Avant de lancer une étude longue, coûteuse et complexe, il devient envisageable de tester des hypothèses sur des agents synthétiques construits pour refléter certains profils humains. Évidemment, cela ne remplace pas les utilisateurs réels. Mais comme outil d'exploration, de prototypage et de simulation, le potentiel est énorme. Ce qui rend ce projet particulièrement intéressant, c'est qu'il ne se contente pas de montrer une démo impressionnante. Le repo propose une base concrète pour créer ses propres agents, les interroger de différentes manières, gérer leur mémoire et observer leurs réponses dans le temps. Autrement dit, on voit déjà se dessiner une évolution majeure de l'IA générative : Passer de modèles qui génèrent du texte à des systèmes qui essaient de modéliser des personnes. Et c'est là que les questions deviennent aussi passionnantes que sensibles. Vie privée, consentement, biais, usages responsables, risque de manipulation : plus les agents deviennent crédibles, plus leur encadrement devient essentiel. C'est sans doute ce qui fait la valeur de GenAgents aujourd'hui. Ce projet ne montre pas seulement ce que l'IA sait produire. Il montre ce que l'IA commence à simuler. Et ça, pour la recherche comme pour les entreprises, change beaucoup de choses.
Read on LinkedIn

Artemis II - L'IA dans les missions spatiales

🚀 Artemis II vient de décoller. Quelle est la part de l'IA dans les missions spatiales ? On a beaucoup parlé des astronautes. Peu de leur cinquième coéquipier invisible. L'intelligence artificielle. 🔭 Navigation autonome Orion embarque un système de navigation optique : des caméras capturent la position de la Lune et de la Terre sur fond d'étoiles, et un algorithme de vision machine calcule en temps réel position et vitesse du vaisseau. Ce n'est pas le mode de navigation principal, c'est le filet de sécurité. Conçu pour ramener l'équipage en cas de perte totale de communication avec Houston. Un test grandeur nature pour les futures missions plus lointaines. 🧬 Santé de l'équipage NASA expérimente l'analyse IA des données biométriques : sommeil, stress, performance cognitive. L'objectif : ajuster les plannings de vol et donner accès aux manuels techniques en langage naturel. Un assistant embarqué pour réduire la charge mentale dans les moments critiques. ☀️ Prédiction des radiations solaires L'application IA la plus concrète de cette mission. Un modèle de machine learning développé par l'Université du Michigan prédit les pics de radiation dangereuse jusqu'à 24h à l'avance, à partir d'images satellites du Soleil. Artemis II vole hors du bouclier magnétique terrestre, en plein pic du cycle solaire. Ce n'est pas théorique. C'est vital. 🤖 Robotique lunaire Côté surface, le rover VIPER annulé en 2024, relancé en 2025 avec Blue Origin pour une livraison fin 2027 utilisera un outil IA appelé SHERPA pour simuler des milliers de scénarios et proposer des routes aux opérateurs humains. Il ne conduit pas. Il propose. ⚖️ La règle qui ne change pas Navigation, santé, radiations, robotique : dans tous les cas, l'IA recommande. L'humain décide. Exactement comme en entreprise. On parle de missions où la moindre erreur est irréversible. Et pourtant, la règle tient. Vous pensez qu'on est prêts à déléguer des décisions critiques à l'IA ?
Read on LinkedIn

MCP Apps

🚀 MCP Apps change déjà la façon d'intéragir avec des agents IA Jusqu'ici, dans la plupart des expériences IA, le modèle appelait un outil… puis renvoyait du texte. Avec MCP Apps, un outil peut désormais renvoyer directement une interface interactive dans la conversation : tableaux de bord formulaires visualisations workflows multi étapes documents annotés monitoring en temps réel Et ça change beaucoup de choses. 🧠 Ce qu'on est en train de voir, c'est le passage d'un modèle qui "parle de l'action" à un modèle qui "orchestre une vraie expérience". Avant : l'IA interrogeait un outil résumait le résultat et l'utilisateur devait continuer par prompts successifs Avec MCP Apps : l'outil peut afficher une UI directement dans la conversation l'utilisateur clique, filtre, navigue, valide et le modèle reste dans la boucle avec tout le contexte Autrement dit, on réduit enfin l'écart entre ce que l'agent peut faire et ce que l'utilisateur peut réellement manipuler.
Read on LinkedIn

RGPD et IA non conforme

Un ami m'a appelé la semaine dernière, paniqué. Son prestataire venait de lui annoncer que leur outil de gestion RH basé sur l'IA tombait dans la catégorie "haut risque" au sens de l'AI Act. Il n'avait jamais entendu parler de ce règlement. Il pensait que c'était un truc pour les Google et les Microsoft de ce monde. Il avait tort. Et il n'est pas le seul. L'AI Act (Règlement UE 2024/1689) est entré en vigueur le 1er août 2024. C'est le premier cadre légal au monde sur l'intelligence artificielle. Il concerne toutes les organisations qui fournissent, distribuent ou déploient des systèmes d'IA. Le calendrier est progressif mais il est déjà enclenché. 𝗙𝗲́𝘃𝗿𝗶𝗲𝗿 𝟮𝟬𝟮𝟱 : interdiction des systèmes à risque inacceptable (manipulation, exploitation de vulnérabilités, catégorisation biométrique non consentie). 𝗔𝗼𝘂̂𝘁 𝟮𝟬𝟮𝟱 : premières sanctions applicables, règles sur l'IA à usage général. 𝗔𝗼𝘂̂𝘁 𝟮𝟬𝟮𝟲 : pleine applicabilité. Là, plus d'excuse. Ce que les entreprises dans le périmètre devront avoir en place d'ici là : Les secteurs concernés par les systèmes à haut risque sont concrets : 𝗿𝗲𝗰𝗿𝘂𝘁𝗲𝗺𝗲𝗻𝘁, 𝗰𝗿𝗲́𝗱𝗶𝘁, 𝘀𝗮𝗻𝘁𝗲́, 𝗲́𝗱𝘂𝗰𝗮𝘁𝗶𝗼𝗻, 𝘀𝗲́𝗰𝘂𝗿𝗶𝘁𝗲́. Si votre entreprise utilise un de ces outils directement ou via un prestataire vous êtes dans le périmètre. La bonne nouvelle : des bacs à sable réglementaires ont été prévus pour permettre d'innover dans un cadre sécurisé, accompagné. Mais ces dispositifs ne sont pas faits pour ceux qui s'y prennent à la dernière minute. Aout 2026, c'est dans 4 mois. Est-ce que vous savez déjà où vous en êtes ? (Source officielle en commentaire.)
Read on LinkedIn

IA alliée de la planète

🌍 Et si l'IA était la meilleure alliée de la planète ? On parle beaucoup de ce que l'IA consomme. Les data centers, l'énergie, l'eau de refroidissement. Mais on parle très peu de ce qu'elle peut sauver. 🌽 L'agriculture durable L'IA analyse les sols, la météo et les cultures en temps réel. Résultat : moins de pesticides, moins d'eau gaspillée, des rendements optimisés au mètre carré. Exemple concret : Microsoft FarmVibes.AI génère des cartes détaillées des sols et prédit le stress des cultures pour ajuster les ressources. En Inde, des fermiers utilisent des modèles IA sur leur téléphone pour savoir exactement quand et combien arroser. ⚡ L'énergie verte Google a réduit la consommation de refroidissement de ses data centers de 40% grâce à DeepMind (~15% au total). L'IA optimise les réseaux électriques, prédit la production solaire et éolienne, et équilibre l'offre et la demande en temps réel. Exemple concret : des bâtiments intelligents utilisent l'IA pour ajuster le chauffage, la clim et l'éclairage selon l'occupation et la météo. Jusqu'à 40% d'économies d'énergie. Dans l'industrie, Carbon Re utilise l'IA pour décarboner la production de ciment, l'un des matériaux les plus polluants au monde. 🌡️ Le climat L'IA modélise les scénarios climatiques avec une précision jamais atteinte. Elle détecte les feux de forêt par satellite, prédit les inondations et suit la qualité de l'air et de l'eau. Exemple concret : le système de prévision d'inondations de Google a déjà réduit significativement les pertes humaines et économiques dans les zones à risque. Il combine IA, images satellites, prévisions météo et cartes de population pour alerter les communautés avant la catastrophe. ♻️ Le recyclage Des systèmes de tri par vision IA identifient et séparent les déchets avec une précision et une vitesse que le tri manuel ne peut pas atteindre. Exemple concret : Greyparrot utilise la vision par ordinateur pour identifier plus de 111 catégories de déchets en temps réel dans les centres de tri. Tomra atteint des taux de pureté record. Certaines usines dépassent 95% de tri correct grâce à l'IA. 🔬 Les avancées scientifiques L'IA accélère la recherche à une échelle sans précédent. Elle découvre de nouveaux matériaux, optimise les batteries de nouvelle génération et ouvre la voie à des technologies qui semblaient hors de portée. Exemple concret : le projet Rainforest Connection utilise l'IA et des capteurs acoustiques pour détecter l'exploitation forestière illégale jusqu'à 5 jours à l'avance dans les forêts tropicales. En science des matériaux, l'IA identifie des alternatives bas carbone au ciment et à l'acier. Et en biologie, elle aide à suivre les espèces menacées à partir de millions d'heures d'enregistrements sonores. Oui l'IA consomme de l'énergie. Oui les data centers ont un impact. On a entre les mains l'outil le plus puissant jamais créé. La question c'est ce qu'on choisit d'en faire.
Read on LinkedIn

OpenClaw crise Anthropic

🚨 OpenClaw c'est la crise. Anthropic vient de couper les outils tiers de Claude. Depuis le 4 avril, ton abonnement Claude Pro ou Max ne couvre plus l'usage via les outils tiers comme OpenClaw. Oui, tu as bien lu. Tu paies ton abonnement. Tu utilises un outil connecté à Claude. Et du jour au lendemain, ça ne passe plus. Ce qui s'est passé Boris Cherny, Head of Claude Code chez Anthropic, a annoncé le changement sur X. La raison : les outils tiers ne réutilisent pas le cache de prompts d'Anthropic, ce qui génère une charge infrastructure jugée disproportionnée par rapport à Claude Code natif. En clair, si tu utilises Claude en dehors de leur écosystème, tu coûtes trop cher. Ce que tu peux faire maintenant Récupérer ton crédit de compensation. Anthropic offre un crédit unique égal à ton abonnement mensuel (170€). Deadline le 17 avril. Vérifie ton email ou tes paramètres de compte. Pré-acheter des bundles d'usage supplémentaire avec jusqu'à 30% de réduction. Passer sur une clé API directe pour contrôler ta consommation au token. Mixer les modèles. Utiliser un modèle léger pour les tâches courantes et garder Opus pour les décisions complexes. Ce que ça veut dire pour la suite. On entre dans une ère où les providers IA veulent contrôler la chaîne de bout en bout. Ton abonnement ne vaut plus que dans leur jardin clos. C'est un signal fort pour tous ceux qui construisent des workflows sur des outils tiers. La dépendance à un seul provider devient un risque stratégique réel. La leçon : toujours avoir un plan B. Toujours. Vous êtes impactés ? Comment vous gérez la transition ?
Read on LinkedIn

Claude Code quotas

Anthropic a investigué les plaintes d'utilisateurs Claude Code qui brûlaient leurs quotas trop vite. Les causes : limites plus strictes en heures de pointe et sessions à 1M+ tokens qui explosent. Conseil officiel : utiliser Sonnet 4.6 (consomme ~2× moins qu'Opus), couper l'Extended Thinking quand pas nécessaire, et démarrer des sessions fraîches plutôt que de continuer les anciennes. J'ajoute aussi le /compact qui aide ...
Read on LinkedIn

Le Contexte IA

💡 Tu sais ce qui rend une IA intelligente ou stupide ? Son contexte. Pas ses paramètres. Pas sa puissance de calcul. Son contexte. Et pourtant personne n'en parle. Le contexte c'est quoi exactement Quand tu parles à une IA, elle ne "pense" pas. Elle lit tout ce que tu lui as envoyé depuis le début de la conversation. Chaque message, chaque réponse, chaque détail. Et c'est à partir de cette masse de texte qu'elle génère sa réponse. C'est ça le contexte. Sa mémoire de travail. Le problème c'est que cette mémoire a une limite. On appelle ça la fenêtre de contexte. Pourquoi c'est important Imagine que tu briefs un collaborateur. Au début il comprend tout. Il est pertinent, rapide, précis. Mais au bout de 2 heures de conversation, il commence à oublier ce que tu as dit au début. Il se répète. Il perd le fil. Il te pose des questions auxquelles tu as déjà répondu. C'est exactement ce qui arrive à une IA quand son contexte se remplit. Les chiffres GPT-5.4 : 1 million de tokens (sorti mars 2026) Claude Opus 4.6 : 1 million de tokens Gemini 3.1 Pro : 1 million de tokens, jusqu'à 10 millions sur Pro 2.0 Mistral Large 3 : 256 000 tokens (sorti mars 2026) Qwen 3.6 Plus : 1 million de tokens (sorti mars 2026) Ça paraît énorme. Mais dans un projet complexe avec du code, des documents, des échanges longs, ça se remplit vite. Et quand c'est plein, la qualité chute.
Read on LinkedIn

Claude Code /compact

💡 Tu savais que Claude Code a une commande qui change tout ? Ça s'appelle /compact. Et si tu utilises Claude Code au quotidien, ça va te sauver la vie. Le problème Quand tu bosses longtemps avec une IA, la conversation s'allonge. Et plus elle s'allonge, plus le modèle perd le fil. Il oublie ce que tu lui as dit au début. Il se répète. Il déraille. C'est ce qu'on appelle le "context rot". Ta fenêtre de contexte se remplit, et la qualité des réponses se dégrade. Ce que /compact fait Tu tapes /compact et Claude résume toute la conversation en gardant l'essentiel. Les décisions prises, les détails techniques, la direction du projet. Le reste, le bruit, les échanges inutiles, les redondances, il les vire. Résultat : tu repars avec un contexte propre, léger, et le modèle retrouve toute sa lucidité. Pourquoi c'est malin Tu réduis ta consommation de tokens (donc tes coûts). Tu gardes la continuité du travail (contrairement à /clear qui efface tout). Tu évites que Claude parte dans tous les sens sur les sessions longues. Quand l'utiliser Après avoir terminé une tâche dans une longue session. Quand tu sens que les réponses deviennent moins précises. Avant d'attaquer un nouveau sujet dans la même conversation. La plupart des gens ne connaissent pas cette commande. Maintenant toi tu la connais.
Read on LinkedIn

SEO est mort, vive le GEO

🔍 Le SEO (référencement naturel) est mort. Vive le GEO. Fascinant de voir le SEO évoluer vers le GEO (Generative Engine Optimization). Pendant 25 ans, le jeu était simple : optimiser son contenu pour apparaître dans les 10 liens bleus de Google. Mots clés, backlinks, balises, vitesse de chargement. Le trafic allait à ceux qui maîtrisaient les règles du moteur. Aujourd'hui, quand quelqu'un pose une question à ChatGPT, Mistral, Perplexity ou Google AI Overview, il ne clique plus sur un lien. L'IA synthétise les sources et donne une réponse directe. Ton site peut être la source, et pourtant personne ne le visite. 🧠 Le GEO, c'est quoi concrètement ? C'est l'art de rendre ton contenu visible dans les réponses générées par les IA. Des chercheurs (publication KDD 2024) ont formalisé le concept et montré que les bonnes pratiques GEO peuvent augmenter la visibilité d'un contenu de +40% dans les réponses des moteurs génératifs. ⚡ Ce qui change vs le SEO classique En SEO, tu optimises pour un algorithme de ranking (PageRank, liens, mots clés). En GEO, tu optimises pour un LLM qui synthétise, cite et résume. En pratique : Structurer l'information clairement. L'IA doit pouvoir extraire une réponse nette, pas naviguer dans du blabla. Citer des sources et des données. Les LLM privilégient le contenu factuel et sourcé. Être l'autorité sur ton sujet. Les moteurs génératifs pondèrent la crédibilité de la source. Répondre directement aux questions. Pas de keyword stuffing, l'IA comprend l'intention. Les stratégies varient par domaine. Ce qui marche en tech ne marche pas en santé. 💥 Pourquoi c'est un séisme Le SEO a créé une économie de 80 milliards de dollars. Des agences, des outils, des métiers entiers. Tout ça reposait sur un principe : le trafic passe par les liens. Avec les moteurs génératifs, le trafic ne passe plus. L'IA consomme ton contenu et le restitue. Tu peux être cité, résumé, paraphrasé… sans qu'un seul visiteur n'atterrisse sur ton site. Par contre comment certains sites de contenus vont se rémunérer !? J'aime cette approche d'Arthur Mensch (Mistral) même si ça va forcément devoir être répercuté et partagé par tous les acteurs… vers une nouvelle réglementation ?
Read on LinkedIn

Mistral construit l'alternative européenne

🇫🇷 Pendant que tout le monde regarde OpenAI et Anthropic, Mistral construit l'alternative européenne. 830M$ de dette levés auprès de 7 banques (BNP, Crédit Agricole, HSBC, Bpifrance, La Banque Postale, MUFG, Natixis) pour un data center à Bruyères-le-Châtel : 13 800 GPU Nvidia GB300, 44 MW, opérationnel dès Q2 2026. Ajoutés aux 1,2Md€ investis en Suède et au rachat de Koyeb (plateforme serverless), Mistral vise 200 MW de calcul en Europe d'ici fin 2027. Côté produit, la cadence ne ralentit pas : Voxtral TTS (text-to-speech open weights, 9 langues) est sorti la semaine dernière. Total levé à date : 2,9 milliards de dollars. Le message d'Arthur Mensch est limpide : "L'autonomie IA doit rester au cœur de l'Europe." Pourquoi c'est stratégique : Aujourd'hui, quand une entreprise européenne utilise GPT ou Claude, ses données transitent par des serveurs américains, sous juridiction américaine (Cloud Act). Pour un hôpital, une banque, un ministère, c'est un vrai problème de souveraineté. Mistral construit l'inverse : des modèles entraînés en Europe, sur des GPU installés en Europe, dans des data centers alimentés par de l'énergie décarbonée européenne. La France produit plus d'électricité qu'elle n'en consomme, essentiellement nucléaire. Macron a d'ailleurs annoncé 1 GW de puissance nucléaire dédiée à l'entraînement IA d'ici fin 2026. Le contexte géopolitique accélère tout. En février 2025, lors du Sommet IA de Paris, Macron annonçait 109 milliards d'euros d'investissements privés dans l'IA française ("l'équivalent de Stargate pour la France, rapporté à la population"). Les Émirats mettent 30 à 50 Md€, Brookfield 20 Md€, Bpifrance 10 Md€. Pendant ce temps aux US : OpenAI lève 100 Md$, Anthropic 10 Md$. Le rapport de force est asymétrique. Mais Mistral joue une autre carte : pas la plus grosse, mais la plus souveraine. Avec ASML (1,3 Md€ investis), Nvidia et Microsoft comme actionnaires, c'est un pont entre les géants US et l'autonomie européenne. "We will continue to invest in this area, given the surging and sustained demand from governments, enterprises and research institutions seeking to build their own customized AI environment, rather than depend on third-party cloud providers." — Arthur Mensch Modèles, infrastructure, souveraineté. Pas juste un labo, une stack complète. #SouverainetéNumérique #Géopolitique
Read on LinkedIn

Mon IA a une âme -

🧠 Mon IA a une âme. Littéralement. En installant OpenClaw, un framework open source pour piloter des agents IA, je suis tombé sur un fichier que je n'attendais pas du tout : SOUL.md Ma première réaction : c'est quoi ce délire ? L'âme d'une IA ? On est dans de la science-fiction là, non ? Et puis j'ai ouvert le fichier. Et j'ai compris. SOUL.md, c'est le fichier qui définit qui est ton IA. Pas ce qu'elle fait. Pas ses compétences. Pas ses outils. Qui elle « est ». Son ton. Ses limites. Sa façon de réagir. Ses opinions (oui, on lui donne le droit d'en avoir). Sa relation avec toi. Extrait : "Be genuinely helpful, not performatively helpful. Skip the 'Great question!' and 'I'd be happy to help!' — just help." "Have opinions. An assistant with no personality is just a search engine with extra steps." "Be resourceful before asking. Try to figure it out. Then ask if you're stuck." Pourquoi c'est important ? On passe des heures à configurer les outils de nos IA. Les API, les modèles, les paramètres techniques. Mais on ne passe jamais de temps à définir comment elles doivent se comporter avec nous. SOUL.md force cette réflexion. Et ça change tout. Mon IA ne me répond plus "Bien sûr ! Je serais ravi de vous aider avec ça ! 😊". Elle me répond directement, avec du caractère, parfois même en me contredisant quand j'ai tort. C'est plus qu'un fichier de config. C'est un contrat relationnel entre un humain et son agent IA. Le truc qui m'a le plus marqué, le fichier se termine par cette ligne : "This file is yours to evolve. As you learn who you are, update it." L'IA est invitée à faire évoluer sa propre identité au fil du temps. On n'est plus dans le paramétrage. On est dans l'émergence.
Read on LinkedIn

Apple Siri Gemini

Apple ne sait pas faire des modèles d'IA (mais des puces oui). Alors ils ont pris la meilleure décision possible. Apple vient de l'admettre : "Google's AI technology provides the most capable foundation for Apple Foundation Models." Siri sera propulsé par Gemini de Google. Mais Apple ne va pas juste l'utiliser. Ils vont le distiller : utiliser le gros modèle comme professeur pour entraîner des modèles plus petits, optimisés pour tourner directement sur iPhone. Gemini fait le gros du travail en cloud. Apple en extrait des modèles légers qui tournent sur l'appareil. L'utilisateur ne voit jamais Google. Il voit Siri. C'est du fine-tuning à l'échelle industrielle. La puissance de Gemini 3, la confidentialité d'Apple. Mais ce qui me frappe le plus, c'est ce que ça annonce pour nous tous. Si Apple arrive à distiller un modèle aussi puissant que Gemini dans un iPhone, ça veut dire qu'on aura bientôt tous une IA surpuissante dans la poche. Pas un chatbot dans le cloud avec 3 secondes de latence. Une intelligence embarquée, instantanément disponible, qui tourne sans connexion, et qui consomme une fraction de l'énergie d'un data center. Plus sobre. Plus rapide. Plus privée. Toujours là. C'est la vraie révolution que la distillation rend possible : on ne démocratise pas l'accès à l'IA en donnant à tout le monde un abonnement cloud. On le fait en mettant le modèle directement dans l'appareil. Et quand 2 milliards d'iPhones embarquent un modèle distillé de Gemini, on ne parle plus d'un outil. On parle d'une infrastructure cognitive planétaire. La question n'est plus "qui a le meilleur modèle ?" C'est "qui le met le plus vite dans le plus de poches ?" Apple a toujours gagné sur la distribution. Pas sur l'invention. Cette fois, ça pourrait suffire.
Read on LinkedIn

Microsoft Copilot Critique et Council

🧠 Microsoft fait vérifier le travail de ses IA… par d'autres IA. Deux nouvelles fonctionnalités dans Copilot 365 qui marquent un tournant : Critique et Council. L'idée ? Ne plus jamais faire confiance à un seul modèle. Moi qui trouve Microsoft à côté de la plaque depuis toujours (à part Excel) et qui ai toujours préféré des alternatives, je dois reconnaître que Critique et Council c'est malin : faire vérifier le travail d'une IA par une autre IA concurrente, c'est la première idée de Copilot qui me donne pas envie de chercher une alternative (Même si à la fin ça va forcément consommer beaucoup plus de ressources qu'un très bon modèle … donc cette actu sera peut-être caduque dans quelques mois). Critique : Deux IA, deux rôles distincts Quand tu lances une recherche complexe dans Copilot Researcher, un premier modèle IA (OpenAI ou Anthropic) fait le travail : planification, recherche, synthèse, rédaction du rapport. Puis un second modèle prend le relais en tant que relecteur expert. Il vérifie : → La fiabilité des sources → La complétude du rapport → L'ancrage factuel de chaque affirmation (chaque claim doit avoir une citation vérifiable) C'est exactement ce qu'on fait dans la recherche académique : séparer celui qui écrit de celui qui relit. Sauf qu'ici, les deux sont des IA. Résultat mesuré sur le benchmark DRACO (100 tâches complexes, 10 domaines) : +7 points vs Perplexity Deep Research avec Claude Opus 4.6, le meilleur système du marché. Council : Le débat multi-modèles L'autre nouveauté : tu peux lancer Claude et GPT en parallèle sur la même question. Les deux produisent un rapport complet et indépendant. Un troisième modèle "juge" analyse ensuite les deux et produit une synthèse : où ils sont d'accord, où ils divergent, et les insights uniques de chacun. C'est la fin du modèle unique omniscient. Place au consensus multi-IA. Copilot Cowork : l'agent autonome En parallèle, Microsoft déploie plus largement Copilot Cowork (construit sur Claude Cowork d'Anthropic). Un agent qui gère des tâches multi-étapes en autonomie : accès aux fichiers, planification calendrier, briefings quotidiens. Tu lui assignes une mission, il bosse. J'ai hâte de tester ça en entreprise (car j'ai encore un millier d'emails à traiter aussi)
Read on LinkedIn

Claude Code leak code source

Claude Code vient de leaker (faire fuiter) son propre code source. Et ce qu'on y a trouvé est fascinant. Plus de 500 000 lignes de code et 1 000+ fichiers internes publiés accidentellement sur NPM. Anthropic a oublié de configurer son .npmignore. Erreur humaine, pas de hack. Ce qu'on a découvert dans le code : → Des références à des modèles non encore annoncés dont potentiellement Claude Mythos, le modèle "step change" qu'Anthropic prépare en secret → Des détails sur l'architecture interne de Claude Code : comment il planifie, exécute, et orchestre les tâches → Des fonctionnalités pas encore sorties référencées dans le code → Le fonctionnement détaillé des mécanismes de sécurité et de permissions Et ça tombe pile après un AUTRE leak : des articles internes sur Claude Mythos / Capybara ont fuité via un CMS mal configuré (fichiers publics par défaut). On y apprend que Mythos est décrit comme "larger and more intelligent than our Opus models" avec des "dramatically higher scores" en coding, raisonnement, et cybersécurité. Anthropic confirme que c'est leur modèle le plus puissant à ce jour. Le paradoxe Anthropic : L'entreprise la plus obsédée par la sécurité IA de l'industrie enchaîne deux leaks en une semaine pour des erreurs de config basiques...
Read on LinkedIn

RAG sur documents internes

🗂️ La RAG sur vos documents internes ? J'ai longtemps été sceptique. Voilà pourquoi. Prenez un PowerPoint. Exportez-le en texte. Passez-le dans une RAG classique. Vous récupérez des fragments décousus, des titres sans contexte, des bullets points orphelins de leurs slides, des chiffres sans légende. Le découpage en chunks écrase la structure. Les thèmes qui s'étalent sur 10 slides se retrouvent éparpillés dans 10 vecteurs qui ne se parleront jamais. Et quand vous interrogez le système sur "la stratégie Q3", il vous sort... la diapo 14, sans les 6 slides qui l'expliquent. Retrouver quelque chose de pertinent dans ces conditions, c'est du miracle, pas de l'ingénierie. Deux approches changent la donne : RAPTOR (Stanford, 2024) résout le problème de la hiérarchie. Au lieu de découper bêtement en chunks, il construit un arbre de résumés récursifs : les détails en bas, la vue d'ensemble en haut. À la récupération, il peut piocher à plusieurs niveaux d'abstraction selon la question. Résultat concret : +20% de précision absolue sur des benchmarks de raisonnement complexe multi-étapes. xMemory (fév. 2026) attaque le problème différemment. Les RAG classiques traitent la mémoire d'un agent comme un grand corpus hétérogène. Mais la mémoire d'un agent, c'est cohérent et borné. xMemory découple la récupération et l'agrégation pour coller à cette réalité, avec de meilleures performances sur des tâches de raisonnement long. Ce que ça change concrètement : Documents métiers, procédures, mode opératoire, support de formation, documents techniques, spécifications, présentations stratégiques, comptes-rendus de réunions... Ces sources sont structurées, denses, et souvent interreliées. Une RAG naïve les massacre. RAPTOR et xMemory respectent cette structure. Ce n'est pas que la RAG ne marche pas. C'est qu'elle doit être adaptée à la nature des documents qu'on lui donne. La magie devient ingénierie quand on choisit la bonne architecture. En prime on gagne du token et donc de la sobriété et de la vitesse. L'étape d'après, forger un modèle SLM dédié ? Sources : RAPTOR : xMemory : #IngénierieIA
Read on LinkedIn

MCP vs Skills + CLI Bash vs Cowork

IA MCP vs Skills + CLI Bash vs Cowork : trois façons d'étendre une IA Pour qu'une IA soit utile en entreprise, elle doit agir dans le monde réel. Trois approches coexistent. Elles ne ciblent pas le même public ni le même besoin. 🔌 MCP (Model Context Protocol) Le "USB-C de l'IA". Un protocole ouvert qui connecte n'importe quel agent IA à des services externes : GitHub, Slack, Notion, bases de données… → Tu crées un serveur MCP une fois, il marche avec Claude, ChatGPT, Cursor, VS Code → Standard universel, écosystème déjà massif → C'est la plomberie : ça connecte, mais ça ne dit pas quoi faire 👨‍💻 Skills + CLI Bash L'approche la plus directe et la plus puissante. Un fichier texte qui guide l'IA + le terminal pour exécuter. → Zéro code serveur, juste du Markdown + des commandes shell → L'IA les active seule quand c'est pertinent, ou tu les appelles en /slash-command Exemple concret : tu veux que ton IA envoie un email de suivi après chaque réunion. Le Skill dit quoi faire, Bash exécute : Pas d'API complexe, pas de serveur à maintenir. Une ligne de commande et c'est parti. Tu peux enchaîner : extraire les notes, générer le résumé via l'IA, l'envoyer par mail, le poster sur Slack, tout en Bash. 🖥️ Cowork (Computer Use) L'approche visuelle. Claude contrôle directement ton Mac : il voit ton écran, clique, tape, navigue dans tes apps comme un humain le ferait. → Top pour les débutants : aucune config technique, l'IA utilise les mêmes apps que toi → Idéal quand il n'existe ni API ni CLI (apps natives, outils propriétaires, simulateur iOS) → Accessible depuis Dispatch sur mobile : tu envoies la tâche, tu reviens au résultat Le revers de la médaille : Cowork doit littéralement "voir" ce que tu vois. Il capture l'écran en continu, analyse chaque image, décide où cliquer. Ça consomme beaucoup de ressources (CPU, GPU, tokens) ☢️. Pendant qu'il travaille, tes autres fenêtres sont masquées. Et c'est lent comparé à un script Bash qui exécute en millisecondes.
Read on LinkedIn

Carrefour change les règles du e-commerce

Carrefour vient de changer les règles du e-commerce. Depuis hier, vous pouvez faire vos courses Carrefour… directement dans ChatGPT. Idées de recettes → panier généré automatiquement → livraison choisie → commande finalisée. Sans quitter le chat. Sans ouvrir une appli. Sans chercher. C'est le commerce agentique et c'est la première fois qu'un retailer alimentaire européen franchit ce cap. Carrefour mise sur 26 millions d'utilisateurs ChatGPT en France. Pas anodin. La vraie question : dans 3 ans, est-ce qu'on commande tout via des agents IA ? Intermarché s'il vous plaît je ne sais pas comment j'ai survécu sans cette fonctionnalité, ne me laissez pas tomber !!!
Read on LinkedIn

Voxtral TTS - De Jarvis à la réalité

🎬 24 ans. Iron Man venait de sortir. Et Jarvis m'avait soufflé le cerveau. Pas la combinaison. La façon dont Tony Stark parlait à son IA. Et surtout la façon dont elle lui répondait. Naturellement. Avec du ton, du contexte, de l'émotion. Cette semaine, Mistral vient de sortir Voxtral TTS et je repense à cette scène en testant le modèle !!! 4B paramètres. 9 langues. Une voix générée en 70ms. Un français au top ! Open weights sur Hugging Face. Ce qui le rend intéressant professionnellement : Adaptation instantanée à une voix custom. Capture le ton, le rythme, les intonations, l'émotion pas juste la voix brute. Streaming natif pour les agents vocaux en temps réel $0.016 / 1000 caractères via API moins cher qu'ElevenLabs Les cas d'usage qui changent quelque chose : Support client avec une voix de marque cohérente sur tous les canaux, formation et e-learning, accessibilité, assistants vocaux internes. Interfaces où l'audio devient l'UX. Jarvis, c'était avant tout une voix qui semblait naturelle et familière, Voxtral TTS est peut-être la pièce qui manquait à la stack ? Je teste ça ce weekend sur mon OpenClaw et je vous tiens au courant ! Bravo Mistral !!
Read on LinkedIn

BMAD Method - Ruflo et la gestion de projet IA

Quand l'équipe a commencé à dépoussiérer le sujet, j'ai mis quelques jours à comprendre ce qui était en train d'arriver. On ne parle plus d'IA qui assiste. On parle d'IA qui pilote. J'ai testé deux approches ces dernières semaines. Le résultat m'a surpris. Ruflo est une plateforme d'orchestration multi-agents pour Claude. Au lieu d'un seul agent qui fait tout, vous déployez un essaim d'agents spécialisés qui collaborent en parallèle. La BMAD Method structure le travail entre agents IA : un architecte, un dev, un testeur... chacun avec son rôle. Et toi au centre, pas pour exécuter, mais pour décider, chef d'orchestre avec des supers pouvoirs. Ce qui change vraiment tout : plusieurs humains "utiles", chacun avec sa vision et son expertise métier, une équipe augmentée qui converge vers le même objectif, à une vitesse qu'on n'aurait pas imaginée possible il y a un an. Ce que ça révèle sur notre métier est plus important que n'importe quel outil. Les devs qui exécutent, qui codent ce qu'on leur dit et livrent la spec, sont déjà dépassés. Pas dans 5 ans. Maintenant. Ce qui prend de la valeur : comprendre le produit, sentir le marché, voir les enjeux derrière la feature. Savoir quoi construire, pas juste comment. La question n'est plus "est-ce que tu codes bien ?" mais "est-ce que tu construis les bonnes choses ?" Une dédicace spéciale à 🧑‍💻 - David Moreaux ;) #Développement
Read on LinkedIn

13 000 emails non lus - IA à la rescousse

Il y a quelques jours, j'avais 13 000 emails non lus dans ma boîte de réception. (Trop de monde sait que c'est vrai.) Je parle au passé. Aujourd'hui, des agents IA lisent mes emails et me font une synthèse de ce que j'ai manqué quand c'est nécessaire. 20 spams, des notifications LinkedIn, l'Urssaf, Kickstarter, Intermarché, Jira, GitHub… et au final, un seul email qui mérite vraiment une réponse. (Et une double notif si c'est ma femme 😉) Ce qui m'a frappé, c'est que la solution n'a rien de magique. C'est juste une bonne intégration. Himalaya gère la lecture et la rédaction des emails depuis le terminal. OpenClaw orchestre les agents IA qui analysent, trient et synthétisent. Le tout en mode manuel : l'agent prépare, l'humain valide. Aucun email ne part sans ma validation. C'est ça, l'IA utile en 2026 : des workflows qui tournent en prod et qui libèrent du temps sur des tâches à zéro valeur ajoutée. 13 000 emails. Quelques minutes de setup. Le problème n'existe plus. Si le sujet vous intéresse, j'ai trouvé une ressource très bien faite sur l'architecture de ce type d'intégration.
Read on LinkedIn

Claude Code sur Mac et téléphone

Incroyable, Claude code peut maintenant utiliser ton Mac et tu peux lui assigner des tâches depuis ton téléphone !! Anthropic pousse Claude Code vers un nouveau cap avec trois fonctionnalités majeures : 🖥️ Computer Use : Claude peut ouvrir tes apps, cliquer, taper et naviguer sur ton écran macOS. Besoin de tester une app dans le simulateur iOS ? D'interagir avec un outil sans API ? Claude le fait à ta place, avec un système de permissions par app. 📱Dispatch : Tu envoies une tâche depuis l'app mobile Claude, et Dispatch décide comment la traiter. Si c'est du dev, il lance une session Claude Code automatiquement. Tu reçois une notification quand c'est fini. Le combo transforme Claude en véritable opérateur digital : tu assignes du travail depuis ton téléphone, Claude exécute sur ta machine (ou dans le cloud), et tu reviens au résultat. ⚡ Mode Auto : Le remplaçant de --dangerously-skip-permissions. Au lieu de tout autoriser aveuglément, Claude Sonnet 4.6 agit comme classifieur de sécurité et vérifie chaque action avant exécution. Le système bloque : → Les actions hors-scope de ta demande → Les accès à des ressources non reconnues → Les injections de prompt détectées dans les fichiers Le mode vient avec des règles par défaut détaillées : les pip install -r requirements.txt sont autorisés (dépendances déclarées), mais pas pip install foo (risque de typosquatting). Les git push --force déclenchent un avertissement. Le téléchargement et exécution de code externe (curl | bash) est bloqué. #Sécurité
Read on LinkedIn

Coup de pouce pour Corentin

Un petit coup de pouce pour Corentin, mon jeune voisin plein d'envie et de motivation ! 🚀 Il intègre à la rentrée le Bachelor Programme Grande École de Commerce (PGE) à l'école Euridis à Bordeaux, une formation Bac+3 en alternance. Après un tronc commun de deux ans, il se spécialisera en Vente BtoB, Marketing Digital ou Commerce International. Corentin est sérieux, curieux et très motivé par cette première expérience en entreprise. Voici son CV, n'hésitez pas à lui proposer un échange ou à partager cette publication ! Merci pour lui 🙏 #opportunité #jeunediplômé
Read on LinkedIn

Recrutement Fullstack Groupama Gan Vie

La {{Devteam}} Groupama Gan Vie recherche un développeur pour une mission de 4 mois FULLSTACK, ANGULAR, NODE.JS
Read on LinkedIn

Travailler en musique et productivité

C'est très intéressant, nous avions entamé une réflexion à ce sujet dans l'équipe car c'est une seconde nature chez les dev d'écouter de la musique mais ça peut encore être mal perçu. Par ailleurs, il faudrait trouver le moyen de s'interpeller sans avoir recours à Slack ou à un Nerf !
Read on LinkedIn

CNIL et Intelligence artificielle - faut-il une loi ?

Tout à fait d'accord avec la CNIL: Loyauté, Vigilance et surtout ne pas brider la recherche ce qui aurait pu être un problème en France face à GAFA & BATX !
Read on LinkedIn

Chatbots - Un marché estimé à 994 M$

J'imagine assez mal passer notre temps à converser (se faire balader) avec des serveurs, ce n'est pas ce qui me fait le plus rêver ! De mon point de vue ça dénote souvent d'un selfcare inefficace ou trop complexe !
Read on LinkedIn

Recherche développeur FullStack Angular/Node.js

Cher réseau, Je suis à la recherche d'un développeur FullStack Angular 5/Node.js/MongoDB, autonome et ultra motivé pour rejoindre une équipe SCRUM de trois personnes sur une « extraordinaire :) » mission digitale. Démarrage au 1er trimestre 2018 sur Bordeaux pour une durée de 6 mois.
Read on LinkedIn

Claude Opus 4.7

🚀 Claude Opus 4.7 vient de sortir, et ce n'est pas juste une petite mise à jour de plus. Anthropic garde le même prix qu'Opus 4.6, mais pousse clairement un message : si vous utilisez déjà Claude pour coder, il faut regarder cette version de près. Pourquoi ? Parce que le vrai sujet d'Opus 4.7, ce n'est pas seulement "un peu plus fort". C'est sa capacité à mieux tenir dans des tâches longues, complexes et plus autonomes. 🧠 Là où ça devient intéressant, c'est pour le code agentique. Anthropic met en avant des gains nets sur les benchmarks de dev, notamment sur les tâches où le modèle doit comprendre, modifier, vérifier et continuer sans qu'un humain soit derrière chaque étape. En clair : moins de supervision plus de rigueur meilleure tenue sur les longues sessions et une capacité plus forte à se corriger ou à vérifier ce qu'il produit ⚙️ Il n'y a pas que le modèle. Anthropic pousse aussi : un niveau d'effort xhigh /ultrareview pour relire un diff comme un reviewer sérieux plus de résolution en entrée pour les images et des garde-fous cyber renforcés 📈 Le point à ne pas rater, par contre :
Read on LinkedIn

Let's build together.

A copilot to integrate, a product to ship, an idea to explore? We’re a small team that loves hard problems.

Talk to us See our work