Chez XWiki, nous avons toujours été passionnés par la collaboration et le partage des connaissances grâce à notre plateforme wiki open-source. Avec WAISE, nous portons cette mission à un tout autre niveau en tirant parti de la puissance de l'IA et des grands modèles de langage (LLM).
- Présentation de WAISE
- Étapes franchies jusqu'à présent
- Impact du financement de la recherche NGI
- Objectifs pour l'avenir
Présentation de WAISE
Avec le projet WAISE, nous construisons un serveur d'applications qui fournit un chatbot alimenté par de grands modèles de langage (LLM). L'innovation principale est que ce chatbot peut être intégré dans n'importe quelle application pour répondre à des questions basées sur le contenu et les données de cette application, tout en respectant les permissions de l'utilisateur actuel.
En développant WAISE, nous tirons pleinement parti des puissantes fonctionnalités de XWiki. Par exemple, nous utilisons la fonctionnalité App Within Minutes pour créer rapidement des prototypes et des itérations sur l'application WAISE directement à partir de l'interface wiki. Cela nous permet de construire très vite les composants de base tels que les interfaces utilisateur pour la gestion des modèles de langage ou des collections de documents.
Nous tirons également parti de la prise en charge des données structurées par XWiki et de l'intégration avec Solr 9 pour indexer et interroger efficacement le contenu qui alimente la recherche assistée par l'IA de WAISE. Le système de permission avancé garantit que WAISE respecte les contrôles d'accès des utilisateurs lors de la recherche d'informations.
En construisant à partir de XWiki, nous obtenons une base robuste et flexible pour WAISE qui nous permet de nous concentrer sur l'innovation en matière d'intelligence artificielle et de recherche.
Points forts de l'architecture WAISE
- Indexation du contenu d'applications externes via une API REST ;
- Extraction du contexte pertinent pour compléter la question de l'utilisateur ;
- Support d'authentification pour intégrer le chat de manière sécurisée dans d'autres applications ;
- Intégration prévue avec XWiki lui-même pour indexer directement le contenu du wiki
Installation
WAISE n'exécute pas lui-même un grand modèle de langage (LLM). En revanche, il fonctionne avec tout serveur qui utilise une API compatible avec l'OpenAI. Vous pouvez utiliser le projet open-source LocalAI pour exécuter des LLM sur vos propres serveurs. Nous étudions également d'autres options comme vllm, qui pourrait être plus efficace pour plusieurs utilisateurs. Vous devrez installer le serveur avec le LLM séparément, ou vous pouvez utiliser un fournisseur qui offre une API compatible avec OpenAI.
Pour tester la version bêta sur votre wiki, vous pouvez le faire par le biais du gestionnaire d'extensions. Allez dans Administrer le wiki > Panneau d'extensions > Extensions et recherchez l'application LLM à partir de la version 0.3.
Étapes franchies jusqu'à présent
- ✅ Prise en charge de l'indexation de contenus provenant d'applications externes à l'aide d'une API REST ;
- ✅ Développement de capacités d'extraction pour trouver le contexte pertinent pour la question d'un utilisateur ;
- ✅ Ajout de mécanismes d'authentification pour intégrer en toute sécurité le chat WAISE dans d'autres applications
Impact du financement de la recherche NGI
Le financement de la recherche NGI a été déterminant pour nous permettre de consacrer des ressources de développement au projet WAISE. Sans ce soutien, nous n'aurions pas pu progresser aussi rapidement et de manière aussi complète. Il nous a aidés à nous concentrer sur la recherche et la découverte fiables et respectueuses de la vie privée.
Objectifs pour l'avenir
Pour la suite, nous avons des projets passionnants pour WAISE :
- Mettre en place une intégration avec une application open-source externe comme OpenProject pour montrer la puissance du chatbot WAISE dans l'amélioration des outils existants ;
- Intégrer profondément WAISE avec XWiki, en indexant directement le contenu du wiki et en permettant aux utilisateurs de référencer explicitement les pages du wiki comme contexte de leurs questions ;
- Continuer d'affiner et d'optimiser l'interrogation et l'extraction du LLM afin de fournir les réponses les plus pertinentes et les plus précises