RAG · Semantic Retrieval

PM Knowledge Retriever

Démonstration d'un pipeline RAG complet : embedding sémantique, retrieval vectoriel et génération augmentée sur une base de connaissances PM.

Pipeline RAG embarqué dans un Cloudflare Worker. Les embeddings sémantiques sont générés par Workers AI (bge-small-en-v1.5) et la similarité cosinus est calculée à l'edge. La base de connaissances couvre 15 documents (PM, PO/Agile, AI Product), découpés en chunks de 300 mots avec overlap de 50.

pm_workflow other intent (portfolio · tech · contact) → Synthesis directement Query user input Planner intent · confidence Retriever Workers AI · cosine sim Synthesis Groq · llama-3.3-70b Reply augmented
15 documents dans la base
PM RICE MoSCoW OKR Kano HEART North Star JTBD Discovery Roadmap PO / Agile INVEST Story Mapping Sprint Ceremonies Déf. of Done AI RAG & LLM AI Product Strategy
Question PM
Comment prioriser avec RICE ? Comment utiliser le modèle Kano ? C'est quoi une North Star Metric ? Comment construire mes OKRs trimestriels ? Comment faire un Story Mapping ? Différence entre RAG et fine-tuning ? C'est quoi une Definition of Done ? Comment mesurer l'expérience avec HEART ?
Planner en cours…
Pipeline RAG — Résultats
1
Planner — Classification d'intent
Analyse la requête et détermine si le retriever doit s'activer
pm_workflow
Confidence : —
2
Retriever — Chunks sémantiques
Top-3 passages les plus proches par similarité cosinus
3
Synthesis — Réponse augmentée
Le LLM génère une réponse ancrée dans les chunks récupérés