Produits Redmine / Redmine AI - Plugin IA pour une gestion de projet intelligente
Disponibilité : Le plugin Redmine AI n’est pas disponible en licence autonome. Il est exclusivement réservé aux clients d’hébergement : en tant qu’AI Add-On mensuel à l’hébergement Redmine managé d’AlphaNodes.
Gestion de projet assistée par IA pour Redmine
Le plugin Redmine AI établit la connexion avec des fournisseurs d'IA externes que vous choisissez vous-même et auprès desquels vous disposez d'un compte ou abonnement. Le plugin enrichit ainsi votre workflow de gestion de projet avec des fonctions d'IA directement dans Redmine. Grâce à cette intégration, vous pouvez résumer des tickets, créer des brouillons de réponses, analyser le contenu du wiki et définir vos propres prompts d'IA.

Fournisseurs d’IA pris en charge
Choisissez le fournisseur qui correspond à vos exigences, en particulier en matière de protection des données et de souveraineté des données :
- OpenAI - tous les modèles GPT actuels
- Anthropic Claude - tous les modèles Claude actuels
- Google Gemini - tous les modèles Gemini actuels
- Azure OpenAI - OpenAI de qualité Enterprise dans votre tenant Azure
- Ollama - faites tourner des modèles d’IA en local pour une protection maximale des données
- Grok / xAI - modèles Grok de xAI
- Mistral AI (entre autres Mistral Large, Small, Codestral, Pixtral) est pris en charge via l’API compatible OpenAI ; les modèles Mistral ouverts (par ex. Mistral, Codestral, Mixtral) peuvent en plus être exécutés localement via Ollama.
- API compatibles OpenAI - LM Studio, vLLM et d’autres
Important : le plugin lui-même ne contient pas de service d’IA. Vous connectez Redmine au fournisseur de votre choix, via son API. Les coûts d’utilisation et les conditions de protection des données dépendent du fournisseur retenu.
Flexible et maîtrise des coûts
Toute personne de l’équipe qui doit travailler avec l’IA n’a pas besoin de la maîtriser d’abord. Les utilisateurs disposant de la permission appropriée créent des modèles de prompts avec des variables. Cela définit précisément quelles données sont envoyées à l’IA. Tous les autres appellent le modèle en un clic, sans avoir à faire eux-mêmes du prompt engineering.
Coûts et accès maîtrisés : les limites de tokens par modèle, avec basculement automatique, maintiennent l’utilisation dans le budget. Les permissions définissent qui peut exécuter quels prompts et quels champs de données sont envoyés aux fournisseurs d’IA.
Fonctions principales
- Prompts d’IA personnalisés - les utilisateurs disposant de la permission appropriée créent des prompts avec des variables. Cela permet de contrôler précisément quelles données sont envoyées à l’IA. Tous les autres appellent le modèle en un clic, sans prompt engineering personnel.
- Suggestion de réponse IA - directement dans le formulaire d’édition du ticket, un clic dans la barre d’outils génère une suggestion de réponse contextualisée. L’IA comprend l’historique complet du ticket et insère le brouillon dans le champ de note, libre à vous de le retravailler.
- Correction de texte - un clic dans la barre d’outils corrige l’orthographe, la grammaire et la ponctuation dans n’importe quel champ texte. Le résultat est affiché en comparaison avant/après et reprend en un clic.
- Analyses automatiques - certains prompts sont exécutés automatiquement à la première ouverture d’un ticket. Le résultat est mémorisé et disponible immédiatement à l’appel suivant, sans nouvel appel API.
- Bloc IA pour tableaux de bord - bloc IA librement configurable pour les tableaux de bord projet : affiche par exemple les tickets ouverts, les opérations en retard ou la progression des versions sous forme de résumé préparé par l’IA.
- Contrôle de la confidentialité - définissez quelles données sont envoyées aux fournisseurs d’IA. Excluez des requêtes IA les champs contenant des données personnelles comme l’auteur ou le responsable. En combinaison avec des modèles locaux via Ollama, vos données ne quittent jamais votre réseau.
- Permissions granulaires - définissez qui peut exécuter des prompts et consulter les résultats d’IA
- Maîtrise des coûts - limites de tokens par modèle avec basculement automatique vers des modèles alternatifs
Assistant IA - chat interactif dans le projet
L’assistant IA est un chat à part entière, directement intégré à votre projet Redmine. Il connaît le contexte du projet (tickets, wiki, membres) et peut, sur demande, agir activement :
- Créer et modifier des tickets - sur la base du langage naturel, avec un dialogue de confirmation avant chaque action d’écriture
- Créer et mettre à jour des pages wiki - directement depuis le chat, sans changer de contexte
- Rechercher dans les tickets et le wiki - y compris l’analyse des pièces jointes et des images
- Importer du contenu externe - intégrer des pages web comme base de travail dans la conversation
Conversations partagées : les chats peuvent être configurés en visibilité publique du projet, basée sur les rôles ou privée. Les équipes travaillent ensemble sur une même conversation, chacun voit qui a posé quoi.
Connexion d’outils externes (MCP) : connectez l’assistant à des services externes comme Slack, GitHub ou d’autres sources compatibles MCP en tant que sources additionnelles d’information et d’action.
Automatisation assistée par IA
En combinaison avec le plugin Redmine Automation, le plugin AI ajoute deux actions assistées par IA à vos règles d’automatisation :
- Modification de ticket par IA - analyse un ticket et le met à jour automatiquement : attribuer des tags, définir la priorité, modifier le statut, affecter un responsable ou ajouter un commentaire, sur la base d’un prompt en texte courant.
- Outil IA - exécute une tâche d’IA avec accès complet aux outils : rechercher des tickets, en créer, lire des pages wiki et bien plus, déclenché automatiquement par vos règles d’automatisation.
Vous pouvez ainsi construire des workflows qui tournent sans intervention manuelle. Exemples typiques : taguer automatiquement les nouveaux tickets selon leur sujet, définir la priorité en fonction du contenu ou router les tickets vers la bonne équipe selon leur description.
Maîtrise des coûts incluse : un tag de modèle avec limite de tokens peut être attribué à chaque action. Si le budget journalier ou mensuel est atteint, l’action s’arrête, le ticket est enregistré sans modification IA, sans erreur.
Nécessite le plugin Redmine Automation.
Recherche vectorielle (PostgreSQL uniquement)
Avec Redmine sur PostgreSQL, des fonctionnalités supplémentaires sont disponibles :
- Tickets similaires - trouvez des tickets liés sur la base du sens, et non uniquement par mots-clés
- Détection de doublons - recevez un avertissement lors de la création de tickets similaires à ceux existants
- Pages wiki pertinentes - la documentation associée est affichée automatiquement
Remarque : la recherche vectorielle nécessite PostgreSQL avec pgvector. Ces fonctions ne sont pas disponibles avec MySQL.
Redmine AI - exclusivement pour les clients d'hébergement.
Redmine AI n'est pas en vente. Il est exclusivement réservé à nos clients d'hébergement : en tant qu'AI Add-On mensuel à partir de Cloud Professional, déjà inclus dans le pack d'hébergement Redmine Cloud Business.
Qui profite de Redmine AI ?
Le plugin IA pour Redmine offre des leviers différents selon le rôle. Voici concrètement ce que quatre groupes d’utilisateurs Redmine typiques en retirent.
Des rapports d'état sans copier-coller
Idéal pour les chefs de projet qui veulent être informés automatiquement de l'état actuel :
- Le bloc texte IA sur le tableau de bord du projet génère automatiquement des rapports d'état à partir des données actuelles des tickets, sans effort manuel.
- L'AI Assistant répond aux questions directement dans le contexte du projet : Quels tickets bloquent le sprint ?, Où en sont les risques ?.
- Les prompts d'IA prédéfinis génèrent des analyses de risques, des résumés pour les parties prenantes ou des listes d'escalade.
Comprendre les tickets plus vite, automatiser les routines
Idéal pour les équipes de support qui veulent traiter plus efficacement les demandes récurrentes et les longs historiques de tickets :
- Obtenez des résumés automatiques de tickets à l'ouverture d'un ticket. Vous comprenez l'historique en quelques secondes au lieu de quelques minutes.
- En combinaison avec le plugin Automation, priorisez automatiquement les tickets en fonction de leur contenu ou orientez certaines tâches vers une personne spécialisée.
- Vérifiez rapidement l'orthographe ou le respect de directives internes sur les messages sortants.
Trouver le contexte, traiter les rapports de bugs
Idéal pour les développeurs qui veulent classer plus rapidement les rapports de bugs et retrouver le contexte de tickets complexes :
- Résumé rapide de rapports de bugs complexes, y compris les étapes de reproduction et les composants concernés.
- Trouvez des tickets et pages wiki similaires grâce à la recherche sémantique, même si la formulation diffère.
- Connectez-vous à GitHub ou GitLab via l'intégration MCP.
Conforme au RGPD et sans charge de maintenance
Idéal pour les responsables informatiques qui veulent déployer l'IA de manière contrôlée et conforme :
- Permissions granulaires. Vous décidez qui peut utiliser quelles fonctions d'IA et quelles données entrent dans les prompts.
- Plusieurs fournisseurs d'IA en parallèle. Vous décidez d'utiliser un Ollama local pour les tickets sensibles ou un fournisseur cloud pour les tâches non critiques (pilotable par tag).
- Définissez si nécessaire une limite de tokens par modèle (le basculement automatique maintient les coûts sous contrôle).
Plugin, serveur et modèle. Tout en Allemagne.
Une IA dans Redmine où le plugin, l’hébergement et, sur demande, également le modèle de langage restent en mains allemandes.
- Développement du plugin en Bavière - le plugin Redmine AI est conçu et maintenu par AlphaNodes.
- Hébergement dans des centres de données allemands - avec contrat de sous-traitance, sites certifiés ISO, aucun transfert de données vers des pays tiers.
- LLM local en option - dans le cadre de notre hébergement, le modèle de langage (Ollama) peut également tourner sur du matériel allemand. Vos tickets ne quittent pas votre réseau.
Nous prenons en charge l’intégralité de la mise en place.
Particulièrement utile pour :
- Équipes d’entreprise : des workflows standardisés au sein des départements, sans que chacun doive se former au prompt engineering individuellement.
- Organisations de support : les utilisateurs au support s’appuient sur des prompts existants et n’ont pas à se préoccuper eux-mêmes du prompt engineering.
- Secteurs régulés : des prompts centralisés et des permissions granulaires soutiennent le respect des exigences de conformité et de protection des données.
- Environnements à fortes contraintes de temps : les nouveaux membres de l’équipe peuvent utiliser directement les prompts existants, sans avoir à se former au préalable au prompt engineering.




