Redmine Produkte / Redmine AI - Intelligentes Projektmanagement

KI-gestütztes Projektmanagement für Redmine

Redmine AI erweitert Deinen Projektmanagement-Workflow um KI-Funktionen – direkt in Redmine. Das Plugin stellt die Verbindung zu externen KI-Anbietern her, die Du selbst auswählst und bei denen Du ein eigenes Konto bzw. Abonnement benötigst. Mit dieser Anbindung kannst Du Tickets zusammenfassen, Antwortentwürfe erstellen, Wiki-Inhalte analysieren und eigene KI-Prompts definieren.



Redmine AI

Unterstützte KI-Anbieter

Wähle den Anbieter, der zu Deinen Anforderungen – insbesondere in Bezug auf Datenschutz und Datensouveränität – passt:

  • OpenAI - GPT-4o, GPT-4, GPT-3.5-Turbo
  • Anthropic Claude - Claude 3.5 Sonnet, Claude 3 Opus
  • Google Gemini - Gemini Pro, Gemini Flash
  • Azure OpenAI - Enterprise-taugliches OpenAI in Deinem Azure-Mandanten
  • Ollama - KI-Modelle lokal betreiben für maximalen Datenschutz
  • Grok / xAI - Grok Modelle von xAI
  • OpenAI-kompatible APIs - LM Studio, vLLM und weitere

Wichtig: Das Plugin selbst enthält keinen KI-Dienst. Du verbindest Redmine mit einem Anbieter Deiner Wahl – über dessen API. Die Nutzungskosten und Datenschutzbedingungen richten sich nach dem jeweiligen Anbieter.

Redmine AI

Flexibel & kostenkontrolliert

Dein Team sollte sich auf die Lösung von Problemen konzentrieren, nicht auf die Perfektionierung von KI-Prompts. Vorgefertigte Prompt-Vorlagen liefern bewährte Ergebnisse mit einem einzigen Klick - ohne Experimentieren, ohne Lernkurve. Teammitglieder mit entsprechenden Berechtigungen erstellen professionelle Prompts mit Variablen, die genau steuern, welche Daten einbezogen werden. Alle anderen wählen einfach aus und führen aus - sofortige Produktivität ohne KI-Expertise.

Enterprise-fähige Kontrolle: Konfiguriere Token-Limits pro Modell mit automatischem Fallback und verfolge die vollständige Nutzung, um im Budget zu bleiben. Granulare Berechtigungen definieren, wer welche Prompts ausführen darf, während Du die volle Kontrolle darüber behältst, welche Datenfelder an KI-Anbieter gesendet werden.

Deine KI, Deine Regeln: Volle Kontrolle über Prompts, Modelle, Berechtigungen und Kosten.

Hauptfunktionen

  • Individuelle KI-Prompts - Teammitglieder mit entsprechenden Berechtigungen erstellen professionelle Prompts mit Variablen, um genau zu steuern, welche Daten einbezogen werden. Andere Benutzer klicken einfach auf einen Button - keine Prompt-Engineering-Kenntnisse erforderlich. Konsistente, hochwertige Ergebnisse jedes Mal.
  • KI-Antwortvorschlag - Direkt im Ticket-Bearbeitungsformular generiert ein Klick in der Toolbar einen kontextbezogenen Antwortvorschlag. Die KI versteht den vollständigen Ticket-Verlauf und fügt den Entwurf ins Notizfeld ein – zur freien Überarbeitung.
  • Textkorrektur - Ein Klick in der Toolbar korrigiert Rechtschreibung, Grammatik und Interpunktion in beliebigen Textfeldern. Ergebnis wird im Vorher-Nachher-Vergleich angezeigt – Übernahme auf Knopfdruck.
  • Automatische Analysen - Bestimmte Prompts werden automatisch ausgeführt, wenn ein Ticket zum ersten Mal geöffnet wird. Das Ergebnis wird gespeichert und steht beim nächsten Aufruf sofort bereit – ohne erneuten API-Call.
  • KI-Block für Dashboards - Frei konfigurierbarer KI-Block für Projekt-Dashboards: Zeigt z.B. offene Tickets, überfällige Vorgänge oder Versions-Fortschritte als KI-aufbereitete Zusammenfassung.
  • Datenschutzkontrolle - Definiere, welche Daten an KI-Anbieter gesendet werden. Halte Felder mit personenbezogenen Daten wie Autor oder Zuständiger aus KI-Anfragen heraus. In Kombination mit lokalen Modellen über Ollama verlassen Deine Daten nie Dein Netzwerk.
  • Granulare Berechtigungen - Steuere, wer Prompts ausführen und KI-Ergebnisse einsehen darf
  • Kostenkontrolle - Token-Limits pro Modell mit automatischem Fallback auf alternative Modelle

KI-Assistent – Interaktiver Chat im Projekt

Der KI-Assistent ist ein vollständiger Chat direkt in Deinem Redmine-Projekt. Er kennt den Projektkontext – Tickets, Wiki, Mitglieder – und kann auf Anfrage aktiv handeln:

  • Tickets erstellen und bearbeiten – auf Basis natürlicher Sprache, mit Bestätigungsdialog vor jeder schreibenden Aktion
  • Wiki-Seiten anlegen und aktualisieren – direkt aus dem Chat heraus, ohne den Kontext zu wechseln
  • Tickets und Wiki durchsuchen – inklusive Analyse von Dateianhängen und Bildern
  • Externe Inhalte importieren – Webseiten als Arbeitsgrundlage in die Konversation einbinden

Geteilte Konversationen: Chats können projektöffentlich, rollenbasiert oder privat konfiguriert werden. Teams arbeiten gemeinsam an einer Konversation – jeder sieht, wer was gefragt hat.

Externe Tool-Anbindung (MCP): Verbinde den Assistenten mit externen Diensten wie Slack, GitHub oder anderen MCP-kompatiblen Quellen als zusätzliche Informations- und Aktionsquellen.

Vektorsuche (nur PostgreSQL)

Bei Verwendung von Redmine mit PostgreSQL stehen zusätzliche Funktionen zur Verfügung:

  • Ähnliche Tickets - Finde verwandte Tickets basierend auf Bedeutung, nicht nur Schlüsselwörtern
  • Duplikaterkennung - Erhalte Warnungen beim Erstellen von Tickets, die bestehenden ähneln
  • Relevante Wiki-Seiten - Zugehörige Dokumentation wird automatisch angezeigt

Hinweis: Die Vektorsuche erfordert PostgreSQL mit pgvector. Diese Funktionen sind mit MySQL nicht verfügbar.

Redmine AI – exklusiv für Hostingkunden.

Redmine AI ist nicht käuflich erhältlich. Es steht ausschließlich unseren Hostingkunden zur Verfügung: über das Enterprise Support Paket, im Zuge unseres Redmine AI Hosting, oder im Redmine Hosting Paket RE Enterprise.

Redmine AI Hosting   Redmine Cloud Paket

Unsicher? Finde heraus, welche Redmine AI Lösung am besten zu Deinen Anforderungen passt.

Wer profitiert von Redmine AI?

  • Support-Teams - Schnellere Antworten mit Kontext aus ähnlichen gelösten Tickets
  • Entwicklungsteams - Schnelle Zusammenfassungen komplexer technischer Themen
  • Projektmanager - Sofortige Projektübersichten und Analysen

Besonders wertvoll für:

  • Unternehmensteams: Standardisierte Workflows über Abteilungen hinweg ohne individuelle Schulung
  • Support-Organisationen: Mitarbeiter konzentrieren sich auf Kunden, nicht auf die Optimierung von KI-Prompts
  • Regulierte Branchen: Zentral genehmigte Prompts gewährleisten Compliance und Datenschutz
  • Zeitkritische Umgebungen: Neue Mitarbeiter ab dem ersten Tag produktiv, nicht erst nach Wochen des Experimentierens