J’ai construit le serveur RAG MCP ultime pour la programmation IA (meilleur que Context7)

Vidéo

Par Cole Medin le 05/05/2025 durée 28:22

Il ne fait aucun doute que les assistants de codage par IA comme Cursor et Windsurf sont extrêmement puissants, mais leur plus grande limitation actuellement est qu’ils hallucinent BEAUCOUP lorsqu’ils travaillent avec des outils et des frameworks spécifiques.

Context7 est une solution à ce problème et je l’ai récemment présentée, mais l’outil commence à devenir un vrai bazar, il n’est en réalité pas open source, et que faire si vous souhaitez construire votre propre base de connaissances RAG afin qu’elle puisse être privée et spécifique à votre pile technologique ?

Eh bien dans cette vidéo, je vous présente un serveur MCP que j’ai construit qui remplace Context7 et qui est entièrement gratuit et open source. Vous pouvez l’utiliser pour explorer N’IMPORTE quel site web, construire une base de connaissances dans Supabase et l’utiliser partout grâce à la puissance du MCP !

C’est la solution ultime pour fournir instantanément un RAG à tout assistant de codage par IA ou agent IA, et je vais continuer à le rendre plus puissant et également l’intégrer avec Archon (mon constructeur d’agent IA). J’ai mis tellement de travail là-dedans pour vous – j’espère que vous allez l’apprécier !

Résumé

  • Avec les assistants de codage IA, il est possible de construire presque n'importe quoi, mais ils ne fonctionnent pas toujours bien avec tous les outils préférés.
  • La création d'un serveur MCP appelé Context 7 permet d'accéder à une base de connaissances pour plus de 8000 librairies.
  • Context 7 est gratuit, mais il existe des problèmes : il ne permet pas d'intégrer des dépôts GitHub privés, et sa logique centrale n'est pas open source.
  • Je recommande de créer votre propre base de connaissances privée pour vos assistants de codage IA, en utilisant un serveur MCP personnalisé.
  • Pour cela, utilisez la fonctionnalité de "crawl" pour extraire vos propres documentations et les intégrer dans votre assistant IA.
  • Par exemple, en utilisant le serveur, j'ai pu extraire en quelques minutes des milliers de caractères de documentation des outils Pyantic AI et Mem Zero.
  • Assurez-vous de bien structurer vos fichiers Markdown pour guider l'assistant dans le processus de codage.
  • Gardez à l'esprit que la douceur de l'interaction avec votre assistant IA dépend de la rapidité du crawling ; il est conseillé d'optimiser cette vitesse.
  • Pensez à diversifier les modèles d’embeddings et à améliorer les stratégies de récupération d'informations pour enrichir davantage votre modèle.
  • La configuration de votre serveur doit inclure tous les détails pertinents, y compris les clés API et les informations de votre base de données Superbase.
  • Le but est de créer un processus flexible et puissant pour que votre assistant de codage IA soit efficace, tout en gardant une base de connaissances entièrement privée.
  • Explorez des solutions comme Lindy, qui offrent des automatisations puissantes avec des agents parallèles, ce qui peut réduire le temps de traitement.

Comment passer à l’action ?

Je vous recommande de mettre en œuvre ces stratégies pratiques pour améliorer votre entreprise ou votre développement personnel. D'abord, créez une base de connaissances privée pour vos outils préférés. Pour cela, utilisez un serveur MCP comme Context 7 ou un serveur personnalisé que vous pouvez gérer vous-même. Cela vous permettra d’accéder à des documentations pertinentes et d’éviter les informations inutiles.

Ensuite, utilisez la fonction de "crawl" pour extraire vos propres documentations. Par exemple, si vous utilisez Pyantic AI ou Mem Zero, vous pouvez rapidement intégrer leur documentation dans votre assistant codage IA. Assurez-vous que vos fichiers Markdown sont bien structurés pour faciliter la recherche d'informations.

Une autre idée est d'optimiser la vitesse du crawling. Plus le processus est rapide, meilleure sera l'interaction avec votre assistant IA. Pensez aussi à diversifier les modèles d'embedding que vous utilisez afin d'enrichir votre base de connaissances.

Pour le côté pratique, mettez en place toutes les clés API et les informations de votre base de données Superbase dès le début. Cela rendra votre configuration fluide et simplifiera l’utilisation future de votre assistant.

Enfin, explorationnez des solutions comme Lindy pour automatiser certaines tâches. Lindy peut vous aider à gérer des flux de travail complexes facilement, ce qui vous fera gagner du temps.

En appliquant ces conseils, vous créerez un environnement de travail plus efficace et personnalisé qui répondra à vos besoins spécifiques.

Citations de Cole Medin

> #### "Avec des assistants de codage IA, vous pouvez pratiquement construire tout ce que vous voulez"  
> >  
   
> #### "Il est cool d'avoir cette grande base de connaissances collectives"  
> >  
   
> #### "Nous voulons quelque chose de plus privé et limité au stack technologique sur lequel vous travaillez"  
> >  
   
> #### "C'est un outil très impressionnant"  
> >  
   
> #### "Cela rend l'interaction tellement plus transparente"  
> >

Transcription

Avec les assistants de codage AI de nos jours, vous pouvez à peu près construire tout ce que vous voulez. Mais leur plus grande limitation en ce moment, c’est qu’ils ne fonctionnent pas toujours bien avec vos outils ou frameworks préférés comme MCP ou Superbase ou Pyantic AI. Ce dont nous avons vraiment besoin, c’est d’une manière de donner des capacités RAG à nos assistants de codage AI pour la documentation de nos outils et frameworks préférés.

Et c’est pourquoi, récemment sur ma chaîne, je vous ai présenté Context 7. C’est un serveur MCP gratuit, du moins pour l’instant, qui fournit instantanément une base de connaissances RAG à vos assistants de codage AI et agents pour la documentation de milliers de frameworks et d’outils différents comme Superbase et MCP. Beaucoup d’entre eux, pratiquement tout ce que vous pouvez vouloir utiliser est disponible via Context 7. Ils ont donc à la fois un serveur MCP que vous pouvez connecter à votre assistance de codage AI et aussi cette interface utilisateur où nous pouvons taper quelque chose comme « authentification » et simuler ce que nous recevons lorsque notre assistant de codage AI recherche la documentation de Superbase pour l’authentification.

Tous les jetons que nous voyons ici et tous ces exemples et code sont fournis à notre assistant de codage AI. Ainsi, il dispose d’une documentation à jour pour tirer parti de Superbase. Cela réduit beaucoup les hallucinations lors du codage. C’est un outil impressionnant. Cependant, il y a quelques problèmes assez importants avec Context 7 dont je veux vous parler. Et en plus de ça, je vais vous présenter ma nouvelle mission : construire quelque chose comme Context 7, mais qui soit complètement open-source et que vous pouvez exécuter vous-même pour créer votre propre base de connaissances privée pour vos assistants de codage AI et agents AI.

Donc, plus là-dessus dans un petit moment et comment je veux m’intégrer avec Archon, mais pour l’instant, je veux parler rapidement des limitations de Context 7. Le premier gros problème, c’est qu’aussi impressionnant qu’il soit d’avoir des documentations disponibles ici pour plus de 8000 bibliothèques différentes, vous ne vous intéressez peut-être vraiment qu’à 10 d’entre elles. Il y a donc de fortes chances que vos assistants de codage AI se basent sur la mauvaise documentation. Ils vont simplement halluciner de cette manière car il n’y a vraiment qu’un très petit sous-ensemble qui vous intéresse. Donc, c’est cool d’avoir cette grande base de connaissances collective, mais vous voudrez probablement quelque chose de plus privé et limité à la pile technologique sur laquelle vous travaillez.

Et puis l’autre problème avec tout cela, c’est que si vous avez des dépôts GitHub privés que vous souhaitez inclure dans votre base de connaissances ou quelque chose comme ça, vous ne pouvez pas le faire car vous êtes contraint dans cette base de connaissances ouverte collective. Un autre problème avec l’ensemble du serveur MCP Context 7, c’est que même si le serveur MCP lui-même est open source, comme ceci est le dépôt GitHub, toute la logique de base, en fait, l’ensemble du produit Context 7 n’est pas open source. Et je vais même vous montrer cela rapidement. Si vous jetez un coup d’œil au serveur MCP, genre si vous plongez vraiment dans le code, vous verrez qu’il n’y a presque rien ici. C’est littéralement 68 lignes de code pour toute la logique de leur serveur car ils touchent juste ce point de terminaison privé qui gère la recherche de bibliothèques.

Donc, tout ce qui concerne le scraping et le RAG en arrière-plan se trouve dans ce point de terminaison d’API privé sur lequel ils vont probablement basculer le commutateur à un moment donné et vous forcer à payer pour cela. Ils vont commencer à monétiser cela à un moment donné, donc ce n’est vraiment pas open source. Et donc, lorsque ce n’est pas open source, vous devrez éventuellement payer pour cela. Et vous ne pouvez pas avoir vos propres bases de connaissances privées et nous voulons tout cela.

Et donc avec ce serveur RAG MCP pour AI que je vous présente maintenant, nous avons toutes ces choses. Vous pouvez scraper n’importe quel site web que vous voulez, l’intégrer dans votre propre base de connaissances privée, et ensuite l’exploiter instantanément dans n’importe quel assistant de codage AI ou agent AI. C’est ce qui m’excite très fortement aujourd’hui.

Donc, pour vous montrer à un niveau élevé comment fonctionne ce serveur MCP, je vais vous donner une démonstration rapide dans Windsurf. Et donc d’abord, laissez-moi vous montrer ce que je veux construire. Disons que je veux créer un agent AI avec Pyantic AI comme mon framework d’agent AI. Mais je veux aussi qu’il ait une mémoire à long terme utilisant un autre outil open-source appelé Mem Zero. Je veux obtenir la documentation pour ces deux frameworks différents et l’intégrer dans mon assistant de codage AI. Ainsi, je vais vous montrer que je n’ai rien dans ma base de connaissances Superbase. C’est le tableau que ce serveur RAG MCP va remplir au fur et à mesure qu’il scrape le contenu de la documentation pour Pyantic AI et Mem Zero.

Et donc, je vais commencer par prendre ce llm-text.fold. C’est toute la documentation pour Pyantic AI structurée pour LLM. Je vais copier cette URL. Revenir à mon assistant de codage AI. Vous pouvez voir que j’ai déjà mon projet configuré avec planning.md, task.md. J’ai mes règles Windsurf pour lui dire comment utiliser mon serveur MCP. Et donc, ce que je vais faire avant même de commencer la construction, c’est de lui demander de crawler et je vais simplement lui donner ce lien. Donc, il sait comment exploiter cet outil dans mon serveur RAG MCP. Et je vais même vous montrer cela alors qu’il commence le crawling. J’ai le conteneur en cours d’exécution en ce moment dans Docker. Nous pouvons voir toutes les requêtes entrant à mesure qu’il scrape et alors qu’il intègre tout le contenu dans ma base de connaissances.

Et donc je vais le laisser tourner ici. On dirait que cela a déjà été complété. C’était super rapide. Nous avons 288000 caractères, 67 chunks qui sont stockés dans Superbase. Donc je vais revenir à ma base de données ici et je vais rafraîchir. Et là, voilà. Nous avons toute la documentation pour Pyantic AI, qui est maintenant disponible pour RAG et notre serveur MCP peut effectuer RAG aussi bien que faire le crawling lui-même.

Et donc maintenant, je veux aussi scrapper me zero. Donc cette fois, au lieu d’un LLM’s-full.ext, j’ai un sitemap. Il a besoin de lire ce sitemap et ensuite de visiter chacun de ces URLs dynamiquement. Et donc ce serveur MCP peut aussi gérer différents types d’URL que vous lui donnez comme llm’s.ext ou sitemaps ou même s’il a juste besoin de scraper de manière récursive à partir d’une URL de base que vous lui donnez, comme si nous lui donnions simplement l’URL ici pour la documentation de Pyantic AI directement. Il peut gérer tous ces différents types de pages web. Et donc maintenant, je vais aussi dire crawler puis je vais lui donner le lien vers le sitemap de Mem Zero. Cela va prendre un peu plus de temps car il doit récupérer chacune de ces différentes URLs, mais nous allons le voir ici dans le document ou dans les journaux pour mon conteneur.

Il récupère chacune des différentes pages pour Mem Zero. Il va collecter tous les fichiers markdown pour chacune de ces pages et ensuite les insérer par lots dans ma base de données Superbase. Donc il fait également beaucoup de choses par lots, ce qui est super rapide. Et donc ça ne va pas être fait en une seconde, mais il y a beaucoup d’informations qu’il scrape ici et qu’il va mettre dans ma base de connaissances pour RAG. Je vais faire une pause et revenir une fois que ce sera complet.

Et voilà. Environ 20 secondes plus tard, nous avons maintenant crawlé tout pour la documentation de Mem Zero et inséré dans Superbase. Je peux retourner dans mon tableau ici. Nous verrons toujours tous les chunks que nous avons pour Pyantic AI. Puis si je vais vers quelques-unes des dernières lignes, nous avons maintenant tout pour Mem Zero également. Et dans les métadonnées, nous avons des choses importantes comme la source de chaque chunk. Donc nous pouvons toujours séparer la recherche RAG par outils et frameworks spécifiques si vous le souhaitez, c’est quelque chose que vous pouvez faire dans Context 7 que je ne voulais absolument pas perdre avec mon serveur MCP open-source personnalisé que j’ai pour vous avec Crawl for AI.

Et l’autre chose que je veux aborder très rapidement avant que nous ne plongeons maintenant dans l’exploitation de ces connaissances pour construire quelque chose dans Windsurf, c’est qu’il existe de nombreuses plateformes comme Cursor et Windsurf qui fournissent une recherche de documentation native. Et dans Cursor, vous pouvez même ajouter des docs personnalisés. Mais les performances par rapport à quelque chose comme Context 7 ne sont pas si impressionnantes. Il y a une raison pour laquelle Context 7 connaît un tel succès en ce moment. Et c’est ce que je veux construire avec mon propre serveur MCP pour vous aussi. Je veux que ce soit beaucoup plus puissant que les trucs personnalisés que nous avons avec quelque chose comme Cursor. Et donc, ce sera une base de connaissances privée que nous pourrons créer, même en utilisant des LLM locaux et en intégrant cet outil dans nos agents AI, pas seulement nos assistants de codage AI. C’est donc beaucoup plus flexible, beaucoup plus privé et plus puissant. C’est le but que j’ai avec tout ça.

D’accord, donc de retour dans Windsurf maintenant, parce que nous avons notre base de connaissances configurée, il est temps de plonger directement dans le codage de notre agent. Donc j’ai mes règles Windsurf ici lui disant comment utiliser le serveur MCP pour Craw AI. J’ai également mes documents de planification et de tâche pour lui donner cette direction et la vision que j’ai pour l’agent que je veux construire. Et si vous êtes curieux de savoir pourquoi j’ai configuré les choses de cette manière avec ces trois fichiers markdown, vérifiez définitivement cette vidéo que je vais lier ci-dessus où je plonge dans mon processus complet pour utiliser l’assistance au codage AI. Mais c’est ce que je suis en train de suivre ici. Donc avec tout cela configuré, je peux maintenant lui donner mon premier prompt. Et je vais lui dire d’utiliser le fichier planning.md pour obtenir la plupart des instructions, ce que je veux vraiment qu’il construise ici.

Et donc je lui dis aussi dans ce premier prompt d’utiliser le serveur MCP pour Crawl AI pour obtenir la documentation de Pyantic AI et Mem. Et voilà. Tout de suite, il effectue cette recherche avec cette requête initiale. Création et configuration de l’agent Pyantic AI. Puis la sortie, ce sont tous les chunks que nous avons récupérés. Et il tronque un peu ce texte, raison pour laquelle ce n’est pas si long, mais vraiment, il y a beaucoup de contexte qu’il a extrait ici de notre base de connaissances Superbase et ensuite, il a fait exactement la même chose avec Mem Zero. Donc je suppose qu’il a recherché Pyantic quelques fois, alors allons voir. Ok, maintenant nous avons Mem Zero. Donc maintenant, il recherche Mem Zero après avoir cherché Pyantic AI quelques fois, juste pour obtenir tout ce contexte initial.

Et ensuite, après qu’il ait tout ce contexte initial, il lira mon fichier de tâche, comprendra ce qu’il doit mettre en œuvre, peut-être même retourner et rechercher avec RAG plus ou moins comme je l’ai indiqué. Et vous pouvez changer tout cela dans vos prompts et vos règles globales. Mais oui, voilà. Nous pouvons voir qu’il exploite la base de connaissances en temps réel que nous venons de mettre en place il y a environ 5 minutes. Et c’est tellement cool pour moi qu’il s’agisse d’un seul serveur MCP pour gérer tous les crawls et les requêtes RAG, ce qui est super chouette. Et donc ce que je vais faire ici, c’est faire une pause et revenir une fois qu’il a construit toute la structure pour mon agent.

Et voilà. Nous avons maintenant notre agent complet construit pour nous avec Pyantic AI et Mem Zero. Et cela a pris quelques minutes. Comme il y a beaucoup de travail qu’il a fait pour moi. Et ensuite, cela a fini la totalité en mettant à jour les tâches pour moi. Donc, laissez-moi aller voir cela rapidement ici juste pour voir tout ce que j’ai construit. Je n’ai même pas encore regardé cela. Wow, regardez ça. Chaque X que vous voyez ici, il l’a mis intentionnellement là-en-dedans, disant qu’il a complété cette tâche. Et wow, il y a tant de choses qu’il a faites pour moi. Et il a reconnu qu’il ne devrait probablement pas juste essayer de faire littéralement tout, mais il a fait au moins la moitié, sinon plus de la moitié de toutes les tâches que j’avais définies pour lui ici.

Et je ne veux pas faire une démonstration complète de cet agent et itérer dessus en ce moment. Je veux juste plus vous montrer comment il a pu tirer parti des connaissances que nous venons de mettre dans Superbase pour construire cela. Mais oui, regardez ça. Je peux juste le dire immédiatement grâce aux imports de Pyantic AI et à la façon dont il a défini l’agent et à la manière dont il a configuré les outils et même au prompt système. Oui, il a définitivement compris la documentation de Pyantic AI pour pouvoir faire cela. Ensuite, en passant à notre implémentation mémoire, la manière dont il a utilisé Mem Zero fait référence au fait qu’en fait, il l’a configuré de manière à ce que vous puissiez utiliser à la fois la version cloud de Mem Zero et la version auto-hébergée, puis gérer cela via des variables d’environnement. Donc, j’ai vu cela arriver tandis que je le construisais hors caméra, mais c’est comme super cool. Je n’ai jamais en fait configuré cela moi-même dans Mem Zero. Je ne lui ai définitivement pas dit de faire cela, ce qui peut-être que vous ne voudriez pas, c’est un peu trop, mais c’est quand même vraiment cool qu’il ait compris la documentation à un niveau aussi détaillé qu’il est capable d’avoir ce switch pour que je puisse utiliser différentes versions de Mem Zero, selon que je l’héberge en moi-même ou non. Très très chouette.

Donc, encore une fois, je ne vais pas exécuter cet agent complet maintenant et le perfectionner, mais je voulais juste vous montrer à quel point il est capable d’exploiter la nouvelle base de connaissances que nous avons créée pour nous et que nous avons en cours d’exécution totalement en privé. Je vais même vous montrer. Je ne sais pas si vous avez remarqué cela lorsque j’étais dans Superbase. Je tourne sur localhost, comme si j’ai Superbase complètement auto-hébergé. Et alors que je vais en parler un peu plus tard lorsque je parlerai de la vision que j’ai pour ce serveur, je veux aussi le rendre compatible avec Olama pour le modèle d’intégration, comme vous pouvez le faire de sorte que cette base de connaissances que vous construisez soit entièrement privée et vous puissiez utiliser, vous savez, un LLM local quelque chose comme R code pour rendre l’ensemble du processus de codage et d’exploitation de votre base de connaissances 100% local. Donc, il y a juste tant de façons différentes de prendre ce serveur MCP et de le rendre très puissant, privé et flexible. C’est ce qui me motive autant.

Comme une petite pause dans notre serveur MCP RAG, je veux vous présenter une excellente plateforme appelée Lindy. Vous pouvez le considérer comme si l’IA et Zapier avaient un bébé. De plus, ils viennent de lancer une nouvelle fonctionnalité révolutionnaire appelée agent swarms. Jetez un œil à cela. Donc, dans Lindy, nous avons un constructeur de workflow. C’est très similaire à N8N, mais en fait, il a plus d’intégrations. Nous avons notre déclencheur et nos différentes actions. Comme dans ce cas, je donne au workflow une liste de leads et il va chercher perplexity pour chacun d’eux puis rédiger un email d’outreach personnalisé. Et où les agents swarms interviennent, cela le rend vraiment puissant, c’est que nous avons cette boucle où ce qu’il va faire, c’est pour chaque lead que j’envoie, il va créer et faire tourner un agent dédié en parallèle qui gère chacun de ces leads. Donc, même si nous devions envoyer des centaines de leads à cet agent, il serait toujours able à finir en quelques secondes car tout fonctionne en parallèle.

Jetez un œil à cela. Il a déjà lancé une tâche pour gérer chacun des leads que je lui ai donné. Et en quelques secondes ici, nous verrons qu’il terminera la recherche, puis boom, nous commençons à voir ces tâches s’accomplir, créant ces emails personnalisés. Comme, j’ai même mis mon propre nom ici pour que nous puissions voir ce que nous ferions pour un contact avec moi. Et je peux même envoyer cet email pour vraiment terminer le workflow ici pour chacun des leads que nous traitons. Regardez à quelle vitesse cela a été fait parce que nous avons un agent dédié pour chacune de nos tâches. Lindy a également récemment fait alliance avec Pipere pour vous offrir plus de 5000 intégrations et ils se sont associés à Appify afin que vous puissiez avoir plus de 4000 récupérateurs web différents parmi lesquels choisir. Donc les possibilités d’automatisation avec Lindy sont vraiment illimitées. Donc, allez les voir. J’ai un lien vers eux dans la description ci-dessous. Vous obtenez même 400 crédits pour commencer gratuitement avec Lindy, ce qui est certainement suffisant pour voir à quoi ça ressemble d’avoir une usine entière d’agents IA qui travaillent pour vous.

Donc, je suis sûr que ce serveur RAG pour AI a l’air vraiment génial pour vous. Je sais que je me suis éclaté à l’utiliser déjà, et juste à le construire pour vous. Et vous pouvez l’utiliser aujourd’hui. Comme, vous pouvez aller sur le dépôt GitHub, que je vais lier dans la description de cette vidéo. Commencez à utiliser ce serveur MCP pour vous-même, tout comme je l’ai fait dans la démo que je vous ai montrée. Et je vais continuer à le