Benutzerhandbuch · Version 1.0
TealKit ist ein mobiler KI-Agent auf Basis des Model Context Protocol (MCP). Verbinde ihn mit einem beliebigen kompatiblen Sprachmodell (OpenAI, Anthropic Claude, Google Gemini, Mistral, Ollama …) und deinen eigenen Datenquellen — Dokumente, E-Mails, Webseiten, Dateien — und lass die KI mehrstufige Agenten vollautomatisch abarbeiten.
Alles läuft auf deinem Gerät. Es werden keine Daten an TealKit-Server gesendet.
| Plattform | Hinweise |
|---|---|
| Android | Ausgabedateien landen standardmäßig im internen App-Speicher. Unter Einstellungen → Allgemein → Ausgabeverzeichnis kann ein sichtbarer Ordner (z. B. Downloads) gewählt werden. Hintergrundaufgaben laufen über WorkManager. |
| iOS | API-Schlüssel werden in der iOS-Keychain gespeichert. Dateizugriff erfordert einmalig das Tippen auf Verzeichnis wählen — die Genehmigung wird gespeichert. Hintergrundaufgaben nutzen BGTaskScheduler. |
| Windows | Die Windows-Desktop-App ist jetzt im Microsoft Store verfügbar (Microsoft Store). Die Linux-Version ist bei GitHub zum Download verfügbar (siehe Desktop-Funktionen §17). macOS-Unterstützung folgt in einer späteren Version. Der Kauf einer beliebigen mobilen TealKit-Version (Android oder iOS) schaltet die vollständige Desktop-Version kostenlos frei — eine Zahlung für alle Plattformen. |
gpt-4o, claude-sonnet-4-5
oder gemini-2.5-flash.
http://localhost:11434
als Basis-URL eingeben und den API-Schlüssel leer lassen.| Anbieter | API-Schlüssel & Registrierung | Empfohlene Modelle (2025) |
|---|---|---|
| OpenAI | platform.openai.com/api-keys | gpt-4o, gpt-4o-mini, o3-mini, o4-mini |
| Anthropic | console.anthropic.com | claude-opus-4-5, claude-sonnet-4-5, claude-3-5-haiku-20241022 |
| Google Gemini | aistudio.google.com (kostenloser Tarif verfügbar) | gemini-3.1-pro, gemini-2.5-pro, gemini-2.5-flash |
| Mistral | console.mistral.ai | mistral-large-latest, mistral-small-latest |
| Azure OpenAI | Azure Portal → Azure AI Foundry → Schlüssel & Endpunkt | Abhängig vom Deployment-Namen |
| Ollama (lokal) | Kein Schlüssel — ollama.com für Setup | llama3.1, phi4, mistral, qwen2.5 |
Bei der Konfiguration eines LLM finden Sie verschiedene erweiterte Einstellungen. Beachten Sie, dass nicht jeder Parameter bei jedem Anbieter in TealKit verfügbar ist. Hier ist eine kurze Hilfe zu den wichtigsten Optionen:
0.0 – 0.3) für präzise, faktenbasierte Agenten, um Halluzinationen zu vermeiden. Höhere Werte (0.7 – 1.0) sorgen für variablere oder natürlichere Sprache.0 setzen für unbegrenzt. Verringern, um zu verhindern, dass sehr große Werkzeugausgaben (z. B. eine riesige Webseite) das Kontextfenster belegen.1.500.000. An das Kontextfenster des verwendeten Modells anpassen.10–40) machen die Ausgabe fokussierter; höhere erlauben mehr Variation. Leer lassen, um den Anbieter-Standard zu verwenden. Besonders wirksam bei Ollama und lokalen Modellen.0.9 sorgen für abwechslungsreiche, aber kohärente Ausgaben. Auf 1.0 setzen zum Deaktivieren. Leer lassen für Anbieter-Standard.1.0 (z. B. 1.1) reduzieren Wiederholungen; 1.0 bedeutet keine Bestrafung. Nützlich bei längeren Ausgaben. Leer lassen für Anbieter-Standard.TealKit ermöglicht die Konfiguration eines zweiten, unabhängigen KI-Modells für Code-Generierung. So lässt sich ein leistungsstarkes (aber teureres) Primärmodell für komplexe Agenten einsetzen, während ein schnelleres oder günstigeres Modell Shell-Skripte und JavaScript-Werkzeuge schreibt.
LLM 2 konfigurieren unter Einstellungen → LLM-Einstellungen → LLM 2-Reiter. Dieselben Anbieter und Parameter wie für das Primärmodell stehen zur Verfügung.
gemini-2.5-flash oder mistral-small-latest eignet sich gut als LLM 2 — so bleibt das Primärmodell-Budget für komplexe Agenten erhalten.Hier sind einige Beispiele, die Sie im Playground ausprobieren oder als automatisierte Agent (Agent) anlegen können:
disk_usage aus und die rohe Ausgabe wird ${task_result}. Einen bedingten Trigger hinzufügen: „wenn ${task_result} > 65 %“ → Folgeagent diskusage_alert aufrufen.Der Playground ist ein interaktiver Chat, in dem du die KI und ihre Werkzeuge in Echtzeit ausprobierst.
${task_result} an den
nächsten verketteten Agenten weitergegeben.Agenten sind gespeicherte Automatisierungsabläufe. Jede Agent enthält ein Sprachmodell, Werkzeuge, einen System-Prompt und eine Startnachricht — mit einem Tipp ausführbar. Kostenloser Tarif: maximal 3 Agenten. PRO hebt das Limit auf.
Agenten können automatisch nach einem Zeitplan ausgeführt werden:
0 8 * * 1-5 für werktägliche Morgen)Einen abgeschlossenen Eintrag antippen, um detaillierte Statistiken zu sehen:
| Kennzahl | Beschreibung |
|---|---|
| Dauer | Gesamtlaufzeit des Durchlaufs |
| Status | Erfolgreich / Fehlgeschlagen / Abgebrochen |
| Token verbraucht | Anzahl Prompt- und Completion-Token |
| Zeichen | Zeichenanzahl der Ausgabe |
| Werkzeugaufrufe | Anzahl der MCP-Werkzeugaufrufe |
| Nachrichten | Gesamtzahl der Gesprächsrunden |
Das Ausgabeformat über den System-Prompt oder die Startnachricht steuern:
.md), HTML, JSON oder Nur-Text fragenexcel-Server bitten, strukturierte Daten als .xlsx-Tabelle zu exportierenchart- oder mermaid-Server bitten, Diagramme als .png-Bilder zu erzeugenAgentenergebnisse können nach Abschluss automatisch an einen oder mehrere Kanäle geliefert werden. Jeder Kanal besitzt eine eigene Sendebedingung und kann optional die Ausgabedateien anhängen. Globale Zugangsdaten werden einmalig unter Einstellungen → Datenquellen konfiguriert; agentenspezifische Überschreibungen im Reiter Ausgabe.
Jede generierte Datei kann angehängt werden — nicht nur das Markdown-Protokoll:
.xlsx-Tabellen (vom excel-Server),
.png-Diagramme (chart / mermaid),
.html-Vorschauen und .md-Ergebnisdateien.
Die Option Ausgabedateien anhängen im Reiter Ausgabe der Agent
leitet alle erzeugten Dateien an jeden aktiven Zustellkanal weiter.
Das Ergebnis nach Abschluss automatisch per E-Mail verschicken. Im Bereich Ausgabe der Agent konfigurieren:
.md-Ergebnis, .html-Vorschau, .xlsx-Tabellen,
.png-Diagramme und alle weiteren Dateien, die die KI während des Durchlaufs erstellt hatDas Agentenergebnis automatisch in einen Slack-Kanal posten. Eine Slack-App zu erstellen ist kostenlos — app erstellen auf api.slack.com. Zwei Authentifizierungsmodi werden unterstützt:
https://hooks.slack.com/services/…xoxb-…) — ermöglicht echte Datei-Uploads:
chat:write, files:write, files:read.xoxb-…-Token kopieren./invite @BotName zum Kanal einladen.Agentenspezifische Optionen im Reiter Ausgabe:
.xlsx,
.png, .md, .html …) als native Slack-Dateien
(Bot-Token) bzw. als Text eingebettet (Webhook)Das Agentenergebnis automatisch an eine WhatsApp-Nummer senden. Unterstützte Modi:
.xlsx, .png, .md …) werden über die
Media API hochgeladen und als separate Dokumentnachrichten zugestellt.Agentenspezifische Optionen im Reiter Ausgabe:
+49170…)Agentenergebnisse und generierte Dateien werden nach einem Durchlauf automatisch per SFTP auf einen Remote-Server hochgeladen. SSH/SFTP-Zugangsdaten einmalig unter Einstellungen → Datenquellen → SSH konfigurieren.
Agentenspezifische Optionen im Reiter Ausgabe:
.md, .html, .xlsx, .png, …) in das Remote-Verzeichnis hochDen vollständigen Ausgabeordner (Ergebnis + Protokolle + Anhänge) als ZIP-Datei bündeln. Kombiniert mit E-Mail-Ausgabe kommt das Archiv nach jedem Durchlauf per Mail.
Agenten verketten, sodass die Ausgabe eines Agenten in den nächsten fließt. Überall, wo
${task_result} im System-Prompt oder der Startnachricht eines verketteten Agenten
vorkommt, wird es durch die Ausgabe des auslösenden Agenten ersetzt.
Den Folgeagent-Modus auf einem Agenten (Basis-Tab) aktivieren, um ihn als verketteten Folge-Agenten zu markieren. Folgeagenten laufen nur, wenn sie von einem anderen Agenten ausgelöst werden — sie erscheinen nicht in der normalen Agentenliste und können nicht direkt geplant werden.
Beim Einrichten eines Triggers auf einem Agenten stehen zwei Modi zur Verfügung:
Den Nach Tool-Aufruf stoppen-Schalter auf einem Agenten (Basis-Tab) oder im
Playground-Setup aktivieren. Wenn gesetzt, führt der Agent genau einen Werkzeugaufruf aus,
erfasst die rohe Ausgabe und stoppt sofort — die rohe Werkzeugausgabe wird ohne weitere
LLM-Verarbeitung als ${task_result} an den nächsten verketteten Agenten
übergeben. Ideal für Datenextraktions-Agenten, bei denen die exakte, unveränderte
Werkzeugausgabe (z. B. SSH-Output, Suchergebnis, Dokumentausschnitt) in einen
nachgelagerten Agenten fließen soll.
disk_usage aus → rohe Ausgabe wird ${task_result} →
Agent B prüft Bedingung „Nutzung > 80 %“ →
bei Treffer: Agent C (E-Mail) sendet Alarm →
bei keinem Treffer: Kette endet.${task_result} überall im Prompt des
verketteten Agenten verwenden. Beispiel: „Du hast folgende Daten erhalten:
${task_result} — identifiziere die 3 wichtigsten Maßnahmen.“Das System-Prompt-Feld im Agenten-Editor unterstützt mehrstufige Prompts
mit dem ++#++-Trenner. TealKit zeigt jeden Abschnitt als eigene, aufklappbare
Kachel an — so lassen sich einzelne Schritte bequem lesen und bearbeiten, ohne durch
einen langen Textblock zu scrollen.
Vollständige Syntax, Platzhalter-Referenz und Beispiele findest du in Abschnitt 5.1 — Prompt-Aufteilung.
Im Agenten-Editor befindet sich neben dem System-Prompt-Kopfbereich ein Vorschau-Button (👁 Augen-Symbol). Einmal getätippt, stellt er den vollständig zusammengesetzten effektiven Prompt zusammen, der zur Laufzeit an das LLM gesendet wird — einschließlich Datum-/Uhrzeitkopf, Toolbox-Hinweisen, Werkzeugfähigkeiten und automatisch eingefügten Werkzeug-Skills — und zeigt ihn in einem scrollbaren, editierbaren Dialog an.
Die Prompt-Aufteilung ermöglicht es, einen einzelnen Agenten- oder Playground-Prompt
mit dem ++#++-Trenner (in einer eigenen Zeile) in sequenzielle Schritte
zu unterteilen. Jeder Schritt wird als vollständiger, unabhängiger LLM-Aufruf ausgeführt —
das Modell bewältigt eine klar abgegrenzte Aufgabe pro Schritt. Den Platzhalter
${tool_result} in einem späteren Schritt verwenden, um die rohe
Werkzeugausgabe (oder den LLM-Antworttext) des vorherigen Schritts einzufügen.
Erster Schritt-Prompt
++#++
Zweiter Schritt-Prompt, der ${tool_result} nutzt
++#++
Dritter Schritt ...
++#++ in einer eigenen Zeile getrennt.${tool_result} durch die rohe Werkzeugausgabe von
Schritt N−1 ersetzt — oder durch den letzten LLM-Antworttext, wenn kein
Werkzeug aufgerufen wurde.Ruf den Festplattennutzungsbericht mit dem check_disk_usage-Werkzeug ab.
++#++
Hier sind die rohen Festplattendaten:
${tool_result}
Formatiere sie als Markdown-Tabelle. Partitionen über 80 % fett hervorheben.
Im ersten Schritt wird das Werkzeug aufgerufen; im zweiten Schritt empfängt das Modell die rohe Ausgabe und formatiert sie. Jeder Schritt ist einfach genug für ein 7–14 B-Modell.
Prompt-Aufteilung (++#++) |
Agentenkettung PRO | |
|---|---|---|
| Einrichtung | Ein Agent, ein Prompt-Feld | Mehrere separate Agenten |
| Pro erforderlich | Nein | Ja |
| Modell pro Schritt | Dasselbe Modell für alle Schritte | Verschiedene Modelle pro Agent |
| Bedingungsverzweigung | Nein | Ja (LLM-ausgewertet) |
| Datenweitergabe | ${tool_result} — rohe Werkzeugausgabe oder LLM-Text des vorherigen Schritts |
${task_result} — vollständige Ausgabe des vorherigen Agenten |
| Am besten für | Kleine/lokale Modelle; sequenzielles Abrufen → Formatieren → Zusammenfassen in einem Agenten | Modellübergreifende Pipelines; bedingte Weiterleitung; verschiedene Ausgabekanäle pro Schritt |
++#++ in zwei oder
drei fokussierte Schritte aufteilen. Kleine Modelle erledigen eine klare Aufgabe pro Runde
deutlich zuverlässiger als lange, mehrzieligen Prompts.Werkzeug-Skills sind prägnante Nutzungshinweise, die pro MCP-Server-Werkzeug gespeichert und zur Laufzeit automatisch in den effektiven System-Prompt eingefügt werden. Sie helfen dem LLM zu verstehen, wann und wie ein Werkzeug korrekt aufgerufen werden soll — ohne dass du diese Anleitung selbst in den System-Prompt schreiben müsst.
TealKit passt die Menge des injizierten Skill-Texts an das aktive Modell an:
| Modelltyp | Injizierter Skill-Text | Wann injiziert |
|---|---|---|
| Große Modelle z. B. GPT-4o, Claude Sonnet, Gemini 2.5 Pro |
Vollständiger Skill-Text — detaillierte Beschreibung von Werkzeugparametern und Best-Practice-Nutzung | Immer, für jedes aktivierte Werkzeug |
| Kleine / kompakte Modelle (SLMs) ≤7 B Parameter: phi, mini, nano, tinyllama, qwen2.5:3b … |
Kompakter Mini-Skill-Text — eine kurze Zeile pro Werkzeug | Nur wenn der Agent einen aussagekräftigen System-Prompt hat (mehrzeilig oder >50 Zeichen). Sehr kurze oder leere Prompts erhalten keine Skills. |
Datenquellen werden unter Einstellungen → Datenquellen konfiguriert. Jede Quelle kann pro Agent unabhängig ein-/ausgeschaltet werden.
Gmail per OAuth verbinden oder beliebigen IMAP-Server konfigurieren. Die KI kann E-Mails suchen, lesen und optional senden.
DuckDuckGo (kostenlos, kein Schlüssel nötig), Serper.dev oder SerpAPI. Für Premium-Anbieter API-Schlüssel eingeben.
Auf einen oder mehrere lokale Ordner zeigen. TealKit indexiert alle Dokumente in eine lokale DuckDB-Datenbank mit hybrider semantischer + Schlüsselwortsuche. Siehe Dokumentensuche für Details.
Start-URLs hinzufügen und TealKit crawlt und indexiert diese lokal in einen Volltextsuchindex. Vor dem Start des Playgrounds oder der Agent indexieren — das Crawling kann jederzeit gestoppt werden.
Die Indexierung kann automatisch geplant werden nach einem Cron-Zeitplan (Mindestintervall 1 Stunde: stündlich, täglich, wöchentlich oder monatlich). Ein Zuletzt indexiert-Zeitstempel wird angezeigt und eine manuelle Schaltfläche Jetzt indexieren ist jederzeit verfügbar. Geplante Neu-Indexierungen laufen automatisch im Hintergrund. PRO
Optional GPS-Koordinaten speichern. Diese werden in jede Agent eingebettet, damit Anfragen wie „Wetter an meinem Standort“ automatisch aufgelöst werden. Koordinaten verlassen das Gerät nie.
Per OAuth verbinden, um Dateien aus Google Drive zu durchsuchen und zu lesen.
Einen entfernten SSH-Server verbinden. Siehe den SSH-Abschnitt für alle Details.
Smart-Home-Geräte über Home Assistant steuern. Base-URL und Long-Lived Access Token einmalig unter Einstellungen → Datenquellen → Home Assistant konfigurieren. Siehe den Home-Assistant-Abschnitt für alle Details.
Slack-Zugangsdaten für die automatische Ausgabezustellung konfigurieren. Eine Slack-App zu erstellen ist kostenlos — app erstellen auf api.slack.com. Zwei Modi werden unterstützt:
https://hooks.slack.com/services/… beginnt.
Textergebnisse werden als formatierte Nachrichten gepostet; Anhänge als Code-Blöcke eingebettet.xoxb-…-Token einfügen und Standardkanal setzen.
Ermöglicht native Datei-Uploads. In der Slack-App unter OAuth & Permissions →
Scopes → Bot Token Scopes folgende Scopes hinzufügen:
chat:write, files:write, files:read;
anschließend App neu installieren und xoxb-…-Token kopieren.
Bot mit /invite @BotName zum Kanal einladen.Meta Business Cloud API-Zugangsdaten für WhatsApp-Ausgabe konfigurieren. Registrierung ist kostenlos inklusive 1 000 Gespräche/Monat — Erste Schritte auf Meta Developers. Alternativ CallMeBot für einfache Textnachrichten an eine private Nummer (kein Meta-Konto nötig).
whatsapp_business_messaging-Berechtigung+49170123456)TealKit wird mit einem Satz eingebauter MCP-Server geliefert und unterstützt externe Server aus dem Ökosystem.
| Server | Was er bereitstellt |
|---|---|
documents | Semantische + Schlüsselwortsuche in lokalen Dokumentenordnern |
website_search | Crawlen und Durchsuchen von indizierten Webseiten |
web_search | Live-Websuche (DuckDuckGo / Serper / SerpAPI) |
email | E-Mails lesen, suchen und senden via Gmail oder IMAP |
google_drive | Dateien in Google Drive durchsuchen und lesen |
toolbox | Aktuelle Uhrzeit, Zeitzone, Gerätestandort und Stadt-Geocodierung |
ssh | Shell-Befehle auf entfernten SSH-Hosts ausführen PRO |
home_assistant | Smart-Home-Geräte über die Home Assistant REST API steuern PRO |
weather | Aktuelles Wetter und Vorhersage (nutzt Standort, falls verfügbar) |
file | Text-, Markdown- oder HTML-Ausgabedateien erstellen |
excel | CSV / JSON / Text-Daten in eine Excel .xlsx-Datei konvertieren PRO |
chart | PNG-Diagramme aus numerischen Datenreihen erzeugen — Diagrammtypen: Linie, Balken, Fläche, Kreis, Streudiagramm, Histogramm und statistics_summary (4-Panel-Dashboard). Optionale Parameter: Titel, Achsenbeschriftungen, Achsenrotation und individuelle Linienfarben. PRO |
mermaid | Mermaid-Diagrammsyntax (Flussdiagramme, Sequenzdiagramme …) in PNG-Bilder rendern PRO |
pdf | PDF-Dokumente aus KI-generierten Inhalten erstellen PRO |
TealKit bietet drei ergänzende Wege, neue Werkzeuge hinzuzufügen. Das Verständnis der Unterschiede hilft, den besten Ansatz für jede Agent zu wählen:
| Ansatz | Was es ist | Plattformen |
|---|---|---|
| Remote MCP-Server | Cloudgehostete Server, zu denen man sich über HTTPS/SSE verbindet — keine lokale Installation | Alle (Mobil + Desktop) |
| MCP-Server-Registry PRO | Öffentliche Node.js- & Python-Server, die mit einem Klick lokal installiert werden | Nur Desktop |
| Eigene Werkzeuge / Skripte PRO | Eigene Mini-MCP-Server — Shell-Skripte, JS-Snippets oder Python-Werkzeuge, die die KI wie jeden anderen MCP-Server aufruft | Alle (Mobil + Desktop) |
Mit jedem MCP-kompatiblen Server in der Cloud verbinden über HTTP Streaming oder SSE — keine lokale Installation nötig. Unter Einstellungen → Remote MCP-Server eine Katalogquelle wählen:
| Reiter | Quelle | Hinweis |
|---|---|---|
| PulseMCP | registry.modelcontextprotocol.io | Gehostete MCP-Endpunkte durchsuchen & verbinden |
| Smithery | smithery.ai | Optionaler globaler API-Key für alle Smithery-Endpunkte |
| Benutzerdefiniert | Beliebige URL | Server-URL, Endpunkt (/mcp), optionaler API-Key & Passwort |
Jeder konfigurierte Server stellt seine Werkzeuge direkt im Playground und im Agenten-Werkzeug-Selektor bereit. Remote-Server laufen auf allen Plattformen einschließlich Android und iOS.
Auf dem Desktop (Windows, Linux, macOS) kann TealKit MCP-Server lokal herunterladen und ausführen. Dies sind echte Node.js- und Python-Server, die mit einem Klick auf der Maschine installiert werden — kein Terminal nötig. Unter Einstellungen → MCP-Server-Registry vier öffentliche Kataloge durchsuchen:
| Reiter | Quelle | Installationsmethode |
|---|---|---|
| GitHub | Handverlesener Katalog von TealKit | Python (uvx / pip) & Node.js (npm / npx) |
| Glama | glama.ai/mcp/servers | Python & Node.js installierbar |
| PulseMCP | registry.modelcontextprotocol.io | Python & Node.js installierbar |
| Smithery | smithery.ai | Python & Node.js installierbar |
Auf Installieren tippen — TealKit führt npm install -g, uvx oder pip im Hintergrund aus.
Der installierte Server erscheint sofort im Werkzeug-Selektor. Deinstallation entfernt das Paket und den Eintrag.
Jedes in TealKit erstellte Skript oder Werkzeug wird der KI als lokaler MCP-Server-Werkzeug bereitgestellt — die KI ruft es auf genau die gleiche standardisierte Weise auf wie jeden Cloud-Server. Das ermöglicht leistungsstarke Agentenautomatisierung ohne MCP-Server-Boilerplate:
| Werkzeugtyp | Läuft auf | Wie die KI es aufruft |
|---|---|---|
| Shell- / PowerShell-Skript | SSH-Remote-Host oder lokaler Rechner | Über ssh_bridge / ps_bridge MCP-Server |
| JavaScript-Snippet | Geräteseitige sichere Sandbox | Über js_bridge MCP-Server |
| Python-Werkzeug | Lokale Python-Umgebung (Desktop) | Über python_bridge MCP-Server |
Das LLM sieht einen sauberen Werkzeugnamen und ein Input-Schema — es ist egal, ob das Werkzeug ein Cloud-Endpunkt, ein npm-Paket oder ein selbstgeschriebenes 20-Zeilen-PowerShell-Skript ist. Alle drei verwenden denselben MCP-Standard.
TealKit ermöglicht es, eigene Werkzeuge ohne nativen Code zu erstellen. Zwei Assistenten stehen zur Verfügung — erreichbar über den Werkzeuge-Reiter in den Playground-Einstellungen oder beim Bearbeiten einer Agent. Kostenloser Tarif: je 1 Shell-Skript, 1 JavaScript- und 1 Python-Werkzeug. PRO hebt alle Limits auf.
In natürlicher Sprache beschreiben, was benötigt wird — die KI schreibt ein fertiges Shell-Skript. Der Skripttyp wird automatisch anhand der Zielplattform gewählt:
.ps1-PowerShell-Skript.sh-Bash-SkriptGespeicherte Skripte werden automatisch vom SSH-Server erkannt und können in Agenten beim Namen referenziert werden.
Tipps für einen guten Skript-Prompt:
Ein benutzerdefiniertes MCP-Werkzeug als kleines JavaScript-Snippet schreiben. Das Snippet läuft in einer sicheren On-Device-Sandbox und kann REST-APIs mit fetch() aufrufen. Gespeicherte Werkzeuge erscheinen sofort im Werkzeug-Selektor für Playground und Agenten.
Tipps für einen guten JavaScript-Werkzeug-Prompt:
Die vollständige Werkzeugliste eines MCP-Servers in einem maschinenlesbaren Format exportieren — ideal für das Fine-Tuning von LLMs auf Werkzeugnutzungsdaten oder zur Dokumentation verfügbarer Werkzeuge.
Das Export-Symbol (🧠 Modell-Training) erscheint an mehreren Stellen:
Vier Exportformate stehen zur Auswahl:
| Format | Verwendungszweck |
|---|---|
| OpenAI Functions | JSON-Array im OpenAI tools-Schema (Function Calling) |
| Anthropic Tools | JSON-Array im Anthropic tools-Schema |
| Markdown | Menschenlesbare Dokumentation mit Werkzeugnamen, Beschreibungen und Parametern |
| JSONL Fine-tuning | Ein JSON-Objekt pro Zeile, formatiert für LLM-Fine-Tuning-Datensätze |
Kopieren tippen, um die Ausgabe in die Zwischenablage zu kopieren, oder Als Datei speichern, um sie direkt auf dem Desktop zu speichern.
TealKits Dokumentensuche verwendet eine lokale DuckDB-Datenbank mit hybrider semantischer Vektoreinbettung + BM25-Schlüsselwortsuche — keine Cloud-Abhängigkeiten.
Mit dem Chip-Selektor auswählen, welche Dateitypen eingeschlossen werden. Unterstützte Typen:
pdf docx doc txt md
html htm csv json xml
xlsx xls pptx ppt
rtf odt ods odp
epub mobi log
Alle wählt jeden Typ aus, Zurücksetzen hebt alle Auswahlen auf.
Der SSH-Server ermöglicht der KI, Shell-Befehle auf einem entfernten Host auszuführen. Die Verbindung wird unter Einstellungen → Datenquellen → SSH konfiguriert:
Die KI bittet, ein Skript zu schreiben und sofort auszuführen. Beispiel-Prompt:
Verbinde dich mit dem Server, schreibe ein Bash-Skript, das die CPU-Auslastung jede 5 Sekunden für 1 Minute erfasst und in /tmp/cpu_bericht.txt speichert, und zeige mir dann die Zusammenfassung.
Die KI schreibt das Skript, lädt es per SSH hoch, führt es aus und gibt die vollständige Ausgabe zurück — alles in einem Agentendurchlauf.
Eigene .sh- oder .ps1-Skripte in das konfigurierte
Skriptverzeichnis legen (Einstellungen → Allgemein → Skriptverzeichnis).
Die KI erkennt alle Skripte automatisch und du kannst sie per Namen in Prompts referenzieren:
Führe das Skript "backup_db.sh" auf dem Server aus und sage mir, ob es erfolgreich war.
Die Shell-Skriptbibliothek (im SSH-Konfigurationspanel) ermöglicht das Speichern, Verwalten und Wiederverwenden von Skripten. Die Schaltfläche 🔬 Beispiele laden in der Toolbar fügt sofort drei einsatzbereite Beispiele hinzu:
Der Home-Assistant-MCP-Server ermöglicht der KI, beliebige Entitäten im Smart Home über die Home Assistant REST API abzufragen und zu steuern.
http://homeassistant.local:8123 für lokale Installationen oder die Nabu-Casa-Cloud-URL (https://<id>.ui.nabu.casa).home_assistant-Server in jeder Playground-Sitzung und Agent zur Verfügung.light.*-Entitäten)Schalte alle Lichter im Wohnzimmer aus.
Wie hoch ist die aktuelle Temperatur im Schlafzimmer?
Setze den Thermostat auf 21 Grad und sperre die Haustür.
Welche Lichter sind gerade eingeschaltet?
TealKit speichert Kerndateien pro Agentendurchlauf in einem Unterordner mit Zeitstempel:
output_log.md — das Hauptergebnis als Markdownexecution_log.md — schrittweises Werkzeugaufruf-Protokolloutput.html — gerenderte HTML-Version des ErgebnissesZusätzlich werden alle Dateien, die die KI während des Durchlaufs erzeugt, automatisch gespeichert:
.xlsx — Excel-Tabellen, die der excel-Server erstellt
(z. B. „Exportiere die Daten als Excel-Datei“).png — Diagramme des chart-Servers oder
Mermaid-Diagramme des mermaid-Servers.md-, .html-, .csv-, .json-Dateien,
die die KI über den file-Server schreibtUnter Einstellungen → Allgemein auf Ausgabeverzeichnis tippen, um einen Ordner auszuwählen. Ohne Angabe wird interner App-Speicher verwendet.
Die Einstellung Dateien behalten (Tage) (1–60 Tage, Standard 3) löscht alte Durchläufe automatisch. Bereinigung erfolgt beim App-Start und stündlich.
Nein. Alle API-Schlüssel werden ausschließlich im sicheren Schlüsselbund des Betriebssystems (iOS Keychain / Android Keystore) gespeichert und verlassen das Gerät nie.
Lokale Ollama-Modelle funktionieren vollständig offline. Cloud-KI-Anbieter und Websuche benötigen eine Internetverbindung.
TealKit deinstallieren. Alle lokalen Datenbanken, Schlüssel und Einstellungen werden automatisch entfernt.
Große Dokumentenordner oder Webseiten mit vielen Seiten brauchen Zeit. Den roten Stopp-Button tippen, um jederzeit abzubrechen.
Standardmäßig im internen App-Speicher. Unter Einstellungen → Allgemein → Ausgabeverzeichnis einen sichtbaren Ordner (z. B. Downloads) auswählen.
Jeder verkettete Agent startet, nachdem der vorherige abgeschlossen ist. Die Ausgabe des
Vorgängers wird als ${task_result} in den Prompt des verketteten Agenten
eingefügt. Die Verkettung kann bedingungslos (läuft immer) oder
bedingt sein (das LLM wertet einen Ausdruck aus und leitet je nach Ergebnis
an unterschiedliche Agenten weiter). Den Schalter Nach Tool-Aufruf stoppen
auf einem Agenten aktivieren, um die rohe Werkzeugausgabe direkt als ${task_result}
zu übergeben — ohne weitere LLM-Verarbeitung.
Starten führt die Agent autonom aus und speichert das Ergebnis. Interaktiv öffnet einen vollständigen Chat mit demselben LLM und denselben Werkzeugen — ideal zum schrittweisen Steuern der KI oder zum Debuggen einer Agent.
Für alle, denen DSGVO-Konformität oder Datenhoheit wichtig ist — etwa im geschäftlichen oder regulierten Umfeld — empfiehlt sich Mistral AI, ein Anbieter mit Sitz in Frankreich, der alle Daten innerhalb der Europäischen Union verarbeitet. TealKit ist vollständig mit Mistral kompatibel: den API-Schlüssel unter Einstellungen → LLM 1 eintragen und Mistral AI als Anbieter auswählen. Prompts und Daten verlassen die EU-Infrastruktur zu keiner Zeit.
Ja. Unter Einstellungen → Eingebettete Modelle GGUF-Modelle herunterladen und vollständig auf dem Gerät ausführen — kein API-Schlüssel, keine Cloud-Verbindung. Den integrierten HuggingFace-Katalog durchsuchen oder eine direkte GGUF-URL einfügen. CPU-only, Partial GPU oder Full GPU Offloading pro Modell auswählbar. Eingebettete Modelle eignen sich am besten für Textformatierung, Übersetzung und Zusammenfassung im Chat-Modus. Für agentische Werkzeugaufrufe werden sowohl ein für Funktionsaufrufe trainiertes Modell (z. B. Qwen2.5-3B-Instruct) als auch ausreichend GPU-VRAM benötigt — sonst ist die Inferenz zu langsam oder Tool-Schemas werden ignoriert. Siehe Abschnitt 19 — Eingebettete Modelle für die vollständige Hardware- und Fähigkeitsanleitung.
Ja. TealKit unterstützt Small Language Models (SLMs) über Ollama, LM Studio oder jeden OpenAI-kompatiblen lokalen Endpunkt — ohne Cloud-Kosten und ohne externe Datenübertragung. Wichtig: Jedes Modell hat andere Stärken und Schwächen — ein Prompt, der mit einem Modell perfekt funktioniert, muss für ein anderes angepasst werden. Den Playground nutzen, um Prompts mit verschiedenen Modellen auszuprobieren und den besten Ansatz für jede Agent zu finden, bevor daraus ein automatisierter Workflow wird. Für reine Textaufgaben (Übersetzen, Formatieren, Zusammenfassen) den Chat-Modus im Playground oder in den Agenten-Einstellungen aktivieren, um den gesamten Werkzeug-Overhead zu überspringen und den Prompt direkt an das LLM zu senden — der schnellste Weg vom Prompt zur Antwort für SLMs.
Das ist das erwartete Verhalten. Eingebettete (On-Device-)GGUF-Modelle erfordern, dass die App geöffnet ist (Vordergrund oder im Hintergrund aktiv). Wenn Android die App vollständig beendet, weckt der Hintergrund-Alarm einen leichtgewichtigen Isolate, der das On-Device-Modell nicht laden kann — andernfalls droht ein Absturz oder ein OOM-Kill. TealKit überspringt die Aufgabe und sendet stattdessen eine 📱 „TealKit öffnen, um ‘…’ auszuführen“-Benachrichtigung. Beim Antippen der Benachrichtigung öffnet sich die App und der verpasste Durchlauf wird automatisch nachgeholt.
Für zuverlässige unbeaufsichtigte Ausführung den LLM der Agent auf einen Cloud-Anbieter umstellen (Gemini, OpenAI, Anthropic, Mistral) oder einen eigenen Ollama-Server verwenden. Cloud- und Ollama-Agenten laufen vollständig im Hintergrund, unabhängig davon, ob die App geöffnet ist. Auf dem Desktop (Windows, Linux, macOS) ist die App immer aktiv (im System-Tray), sodass Agenten mit eingebetteten Modellen dort normal ausgeführt werden. Der kommende Server-Modus hält ebenfalls einen dauerhaften Scheduler rund um die Uhr am Laufen, ohne die mobile App offen halten zu müssen.
Unter iOS steuert Apples BGAppRefreshTask-System, wann Hintergrundarbeit erlaubt ist. Im Gegensatz zu Androids exaktem AlarmManager-Weckruf entscheidet iOS das Timing selbst — abhängig von Akku, Netzwerk und Nutzungsmustern. Aufgaben können um Minuten bis mehrere Stunden verzögert werden und laufen gar nicht, wenn der Energiesparmodus aktiv ist oder die App zuletzt selten benutzt wurde. TealKit registriert eine Best-Effort-Hintergrundaufgabe; für möglichst zuverlässige geplante Ausführung die App im Vordergrund oder Hintergrund lassen — nicht vollständig schließen bzw. per Force-Quit beenden.
Der JavaScript-Werkzeug-Assistent ermöglicht es, leichtgewichtige eigene MCP-Werkzeuge in reinem JavaScript zu erstellen — ohne nativen Code oder externe Pakete. Werkzeuge laufen in einer sicheren On-Device-Sandbox (QuickJS / JavaScriptCore) und stehen nach dem Speichern sofort im Playground und in Agenten zur Verfügung.
Jedes generierte Werkzeug muss genau ein Objekt namens generatedTool definieren:
const generatedTool = {
name: "bitcoin_preis",
description: "Aktuellen Bitcoin-Kurs von CoinGecko abrufen",
inputSchema: {
type: "object",
properties: {
waehrung: { type: "string", description: "W\u00e4hrungscode, z.\u00a0B. eur" }
},
required: ["waehrung"]
},
execute: async (args) => {
try {
const cur = String(args?.waehrung ?? "eur").toLowerCase();
const res = await fetch(`https://api.coingecko.com/api/v3/simple/price?ids=bitcoin&vs_currencies=${cur}`);
const data = await res.json();
return JSON.stringify({ ok: true, preis: data.bitcoin[cur], waehrung: cur });
} catch (error) {
return JSON.stringify({ ok: false, error: String(error?.message || error) });
}
}
};
execute(args) muss einen JSON-String per JSON.stringify(…) oder einen einfachen String zurückgebenfetch() steht für HTTP-/REST-Aufrufe zur Verfügungconsole.log()-Ausgaben werden erfasst und in den Testergebnissen angezeigtrequire, import, process, fs, path, net, child_processawait auf oberster Ebene außerhalb von execute()generatedTool-Snippet inklusive Schema.
Wenn der js_bridge-Server ausgewählt ist, kann die KI deine Werkzeuge automatisch entdecken und aufrufen:
list_js_tools — gibt alle gespeicherten Werkzeuge mit Schemas ausrun_js_tool — per Name aufrufen: { "toolName": "bitcoin_preis", "args": { "waehrung": "eur" } }js_<name>-Werkzeuge registriert (z. B. js_bitcoin_preis)TealKit erfasst den Token-Verbrauch und schätzt die API-Kosten pro Sitzung und Agentendurchlauf. Keine Daten werden an TealKit übertragen — sämtliche Berechnungen erfolgen anhand integrierter Preistabellen auf dem Gerät.
Während eines Playground-Chats erscheint am unteren Rand der Chat-Fläche ein Token-Zähler mit den kumulativen Tokens und gesendeten Zeichen der aktuellen Sitzung. Der Zähler färbt sich amber, wenn der konfigurierte Token-Warnschwellenwert des Modells näher rückt.
Den Token-Zähler antippen, um die vollständige Detailansicht zu öffnen:
| Feld | Beschreibung |
|---|---|
| Kumulative Tokens | Gesamte Prompt- + Completion-Tokens seit Sitzungsstart |
| Prompt-Tokens | An das LLM gesendete Tokens (kumulativ) |
| Completion-Tokens | Vom LLM generierte Tokens (kumulativ) |
| Letzte Anfrage Tokens | Tokens der jüngsten LLM-Anfrage |
| Letzte Anfrage Kosten | Geschätzte USD-Kosten der letzten Anfrage |
| Sitzungskosten (gesch.) | Geschätzte USD-Gesamtkosten der Sitzung |
| Modellpreisinfo | Eingabe- / Ausgabepreis pro 1 Mio. Tokens für das Modell |
Jeder abgeschlossene Agentendurchlauf zeichnet vollständige Statistiken auf. Einen Eintrag in der Agentenhistorie antippen:
| Kennzahl | Beschreibung |
|---|---|
| Dauer | Gesamte Laufzeit des Durchlaufs |
| Status | Erfolgreich / Fehlgeschlagen / Abgebrochen |
| Token verbraucht | Gesamte Prompt- + Completion-Tokens |
| Gesendete Zeichen | In LLM-Anfragen gesendete Zeichen |
| Werkzeugaufrufe | Anzahl der MCP-Werkzeugaufrufe |
| Nachrichten | Gesprächsrunden insgesamt |
| Letzter Preis | Geschätzte Kosten der letzten LLM-Anfrage (USD) |
| Gesamtpreis | Geschätzte Gesamtkosten der Sitzung (USD) |
Kosten werden anhand integrierter Preistabellen für folgende Anbieter berechnet:
Kumulative Tokens : 4 820 Prompt-Tokens : 4 210 Completion-Tokens : 610 Letzte Anfrage : 0,0062 $ Sitzungskosten : 0,0241 $
Schnelle praktische Hinweise, um das Beste aus TealKit herauszuholen.
Den JS-Werkzeug-Editor öffnen und die Funktion präzise beschreiben — Eingaben, Ausgaben und die aufzurufende API:
Aktuellen Bitcoin-Kurs in EUR und USD von der kostenlosen CoinGecko-API abrufen.
Eingabe: { waehrung: string }. Ausgabe: { preis, waehrung, letzteAktualisierung }.
Auf Generieren tippen, den Code kontrollieren und dann mit Test-Ausführung in der Sandbox prüfen, bevor gespeichert wird. Das Werkzeug steht danach sofort in jeder Sitzung zur Verfügung.
Im Shell-Skript-Assistenten die Zielumgebung, Eingaben und das erwartete Verhalten angeben:
Bash auf Ubuntu. Das Skript nimmt einen Ordnerpfad als Argument, findet alle .log-Dateien, die älter als 7 Tage sind, löscht sie und gibt eine Zusammenfassung (Anzahl und freigewordener Speicher) nach stdout aus. Exit-Code 1 bei Fehler, Fehlermeldung nach stderr.
Nach der Generierung Test-Ausführung tippen, um das Skript via SSH auszuführen und die Ausgabe zu prüfen, bevor es in der Skriptbibliothek gespeichert wird.
Vor dem Aktivieren eines Cron-Zeitplans die Agent mit dem Modus Interaktiv / Ausprobieren öffnen. Dieser lädt die Agentenkonfiguration als Live-Playground-Chat, sodass Werkzeugaufrufe und Ausgaben Schritt für Schritt kontrolliert und der System-Prompt verfeinert werden kann — ohne Scheduling-Historie zu erzeugen.
Unter Einstellungen → Remote MCP-Server → Reiter „Benutzerdefiniert“ ausfüllen:
/mcp (Standard)Auf Test tippen, um die Verbindung zu prüfen und die Werkzeugliste zu sehen, dann Hinzufügen. Die Werkzeuge des Servers erscheinen sofort im Werkzeug-Selektor.
Im Playground: den Token-Zähler am unteren Rand des Chats antippen → das Detailblatt zeigt die Kosten der letzten Anfrage und die kumulativen Sitzungskosten.
Für Agenten: Agent öffnen → abgeschlossenen Eintrag antippen → die Karte Ausführungsstatistiken zeigt Letzter Preis und Gesamtpreis.
Die Schaltfläche Chat zurücksetzen (↺-Symbol in der Toolbar oder unter der letzten Nachricht) tippen, um:
Die KI startet mit leerer Gesprächshistorie — hilfreich beim Themenwechsel oder wenn der Kontext zu groß wurde.
Wer TealKit Pro auf Android oder iOS kauft, erhält die Windows- und Linux-Desktop-Version kostenlos dazu — eine einzige Zahlung für alle Plattformen. Die Windows-App ist im Microsoft Store erhältlich; der Linux-Build steht bei GitHub Releases zum Download bereit. macOS-Unterstützung folgt in einer künftigen Version.
TKIT-…-Schlüssel einfügen → Aktivieren tippen.TealKit enthält eine 31-tägige kostenlose Testphase mit vollem Pro-Zugang. Nach Ablauf der Testphase ohne Pro bleibt TealKit in einem lokalen manuellen Modus nutzbar: Agenten können weiterhin manuell ausgeführt, Ergebnisse lokal als Datei gespeichert und die grundlegenden lokalen Bridges verwendet werden. Pro schaltet die erweiterten Automatisierungs- und Integrationsfunktionen frei:
Die Windows-Desktop-App ist im Microsoft Store verfügbar. Die Linux-Version steht bei GitHub Releases zum Download bereit. macOS-Unterstützung folgt später. Der Kauf einer beliebigen mobilen TealKit-Version schaltet die Desktop-App kostenlos frei.
eval $(gnome-keyring-daemon --start --components=secrets).
Falls gnome-keyring nicht installiert ist, bitte über den Paketmanager nachinstallieren.Fertige Skripte direkt auf dem lokalen Rechner generieren. Die Agent in natürlicher Sprache beschreiben — die KI schreibt das vollständige Skript, das sofort ausgeführt oder in der Skriptbibliothek gespeichert werden kann. Der Skripttyp wird automatisch anhand der Plattform gewählt:
.ps1).sh)Die Shell-Skriptbibliothek speichert alle erzeugten und gespeicherten Skripte. Auf 🔬 Beispiele laden tippen, um drei einsatzbereite Beispiele hinzuzufügen:
Eigene MCP-Server-Werkzeuge in Python direkt in TealKit erstellen. Die KI generiert aus einer einfachen Beschreibung ein vollständiges, ausführbares Python-MCP-Werkzeug inklusive Input-Schema und Execute-Funktion.
json, datetime, math, re, urllib …)urllib.request oder der mitgelieferten requests-BibliothekDie Python-Werkzeugbibliothek speichert alle erzeugten MCP-Werkzeuge. Auf 🔬 Beispiele laden tippen, um drei Starter-Beispiele hinzuzufügen:
psutilAuf Windows steht eine eigene PowerShell-Werkzeugbibliothek zur Verfügung, mit der .ps1-Skripte erstellt, verwaltet und wiederverwendet werden können — die KI führt sie lokal über den ps_bridge-MCP-Server aus. Auf 🔬 Beispiele laden tippen, um drei einsatzbereite Beispiele hinzuzufügen:
ps_bridge-Server steht in jeder Playground-Sitzung und Agent auf Windows zur Verfügung.Die MCP-Server-Registry ermöglicht das lokale Installieren von Python- und Node.js-MCP-Servern mit einem einzigen Tipp — kein Terminal, keine Paketmanager-Befehle.
Unter Einstellungen → MCP-Server-Registry öffnen.
TealKit führt automatisch npm install -g, uvx oder pip im Hintergrund aus und registriert den Server.
Installierte Server laufen lokal auf der Maschine und werden von TealKit automatisch gestartet. Ihre Werkzeuge erscheinen im selben Werkzeug-Selektor wie eingebaute und Remote-Server.
| Reiter | Quelle | Installationsmethode |
|---|---|---|
| GitHub | TealKit-Katalog (handverlesen, getestet) | npm / npx / uvx |
| Glama | glama.ai/mcp/servers | npm / uvx |
| PulseMCP | registry.modelcontextprotocol.io | npm / uvx |
| Smithery | smithery.ai | npm / uvx |
uvx (in TealKit enthalten — keine zusätzliche Installation nötig).C:/Users/Ich/Dokumente.
npm install -g @modelcontextprotocol/server-filesystem im Hintergrund aus.
list_directory, read_file, write_file und search_files aufrufen.
allowed_dirs ist ein Pflichtfeld. Vorwärtsschrägstriche verwenden (z. B. C:/temp), um Windows-Pfad-Probleme zu vermeiden.Der teuerste Teil jeder automatisierten Agent ist das Hin-und-Her zwischen dem LLM und der Außenwelt. Jeder Werkzeugaufruf kostet Tokens und Zeit. Eine einfache Optimierung: die eigentliche Arbeit an ein Skript oder MCP-Werkzeug delegieren und das LLM nur das Ergebnis interpretieren lassen.
Beispiel — aktuelle Uploads per SSH auflisten:
Statt das LLM mehrere SSH-Befehle ausführen zu lassen, um Dateien nach Datum zu filtern,
Größen zu formatieren und eine Tabelle zu erstellen: ein einziges Shell-Skript in der
Skript-Bibliothek anlegen (z. B. check_uploads), das all das erledigt
und eine saubere CSV-Liste mit Spaltenüberschriften zurückgibt. Der Agenten-Prompt lautet dann einfach:
Skript check_uploads /uploads 48 aufrufen Aus der zurückgegebenen CSV-Liste eine Excel-Datei erstellen.
Das LLM macht zwei Werkzeugaufrufe (Skript ausführen, Datei erstellen) statt zehn — weniger Tokens, schnellere Ausführung, geringere API-Kosten, zuverlässigeres Ergebnis.
Der Shell-Skript-Assistent und der JavaScript-Werkzeug-Assistent können aus einer einfachen Beschreibung funktionierenden Code generieren. Ein klarer Prompt mit Eingaben, Ausgaben und Randfällen liefert die besten Ergebnisse. Jedoch:
Auf dem Desktop stehen drei Skript-Umgebungen zur Verfügung — jede mit eigenem Assistenten und eigener Bibliothek:
| Plattform | Skript-Typ | Assistent / Bibliothek | Einsatzbereich |
|---|---|---|---|
| Windows | .ps1 PowerShell |
PowerShell-Tool-Bibliothek Einstellungen → Desktop → PowerShell-Tools |
Lokale Systemverwaltung, Windows-API, Registry-Abfragen, Active Directory, WMI/CIM |
| Linux / macOS | .sh Bash / zsh |
Shell-Skript-Assistent Playground-Tools-Reiter oder Agenten-Editor |
Dateisystem-Operationen, Log-Analyse, Cron-Helfer, SSH-Befehle, Paketverwaltung |
| Alle Plattformen | .py Python |
Python-Tool-Bibliothek Einstellungen → Desktop → Python-Tools |
Datenverarbeitung, REST-APIs, CSV/Excel, plattformübergreifende Hilfsprogramme — portabelste Option |
param()-Blöcke anfordern, damit die KI das Skript mit benannten Argumenten aufrufen kann.pandas und openpyxl“ — TealKit installiert sie beim ersten Aufruf automatisch.requests oder alles, was eine Drittanbieter-Bibliothek benötigt.gdate statt date -d).Nicht jede Agent benötigt dasselbe Modell. Als grobe Richtlinie:
Den LLM 1 / LLM 2-Selektor im Playground nutzen, um denselben Prompt mit verschiedenen Modellen zu vergleichen. Auch mit der Temperatur experimentieren — niedrige Werte (z. B. 0,1–0,2) liefern deterministischere, reproduzierbarere Werkzeugaufrufe; höhere Werte erhöhen die Kreativität, reduzieren aber die Zuverlässigkeit bei Automatisierungsaufgaben.
Eingebettete Modelle ermöglichen das Herunterladen von GGUF-Modelldateien und die vollständige Inferenz auf dem Gerät — kein API-Schlüssel, keine Internetverbindung, kein externer Server erforderlich. Unter Einstellungen → Eingebettete Modelle starten.
.gguf-Downloadlink einfügen.
| Aufgabe | Modus | Hinweis |
|---|---|---|
| Textformatierung / Bereinigung | Chat-Modus | Schnell; keine Werkzeuge nötig |
| Übersetzung | Chat-Modus | Selbst 1–3 B-Modelle reichen aus |
| Zusammenfassung | Chat-Modus | Kontext für kleine Modelle kurz halten |
| Klassifizierung / Tagging | Chat-Modus | Einfache strukturierte Ausgabe |
| Werkzeugaufrufe / Agenten | Agenten-Modus | GPU + Tool-trainiertes Modell erforderlich (siehe oben) |