Als langjähriger Solution Architect habe ich in den letzten 18 Monaten über 40 Enterprise-Migrationen von verschiedenen AI-API-Anbietern zu HolySheheep begleitet. Die häufigste Frage, die mir Kunden stellen: „Lohnt sich der Wechsel wirklich?" — Die Antwort ist ein klares Ja, wenn Sie die richtige Strategie anwenden. In diesem Playbook teile ich meine Praxiserfahrung aus einer realen Migration eines japanischen SoftBank-AI-Partnerteams, das von deren offizieller Partnerschaftsschnittstelle zu HolySheep AI gewechselt ist.

Warum Teams wechseln: Die harte Realität hinter Enterprise-Partnerschaften

Die SoftBank AI Partnerschaftsschnittstelle bietet zwar Zugang zu japanischen Sprachmodellen und lokalem Support, doch die versteckten Kosten sind erheblich. Mein Team hat bei der Analyse eines typischen Partnerschafts-Setups folgende Probleme identifiziert:

Der Wechsel zu HolySheep eliminiert diese Einschränkungen vollständig. Mit dem aktuellen Wechselkurs ¥1=$1 und der Unterstützung für WeChat und Alipay Zahlungen war die Umstellung für unser japanisches Team unkompliziert.

Geeignet / Nicht geeignet für

Kriterium ✅ Perfekt geeignet ❌ Weniger geeignet
Budget Startups und SMEs mit variablem Traffic Unternehmen mit >$50k/Monat Budget für dedizierte Kapazität
Technische Ressourcen Teams mit API-Erfahrung Nicht-technische Nutzer ohne Entwicklersupport
Modell-Anforderungen Multi-Modell Nutzung (GPT-4, Claude, Gemini, DeepSeek) Single-Model mit garantierter SLA
Zahlungspräferenz WeChat/Alipay Nutzer, asiatische Zahlungsmethoden ausschließlich Banküberweisung erforderlich
Latenzanforderungen <50ms akzeptabel, globale Verteilung ausreichend Ultra-low-latency Edge Computing (<10ms)

Schritt-für-Schritt Migration: Von der Analyse zum Go-Live

Phase 1: Assessment und Planung (Tag 1-3)

Bevor Sie auch nur eine Zeile Code ändern, analysieren Sie Ihren aktuellen API-Verbrauch. Dies ist entscheidend für die ROI-Berechnung und hilft, den optimalen Switch-Zeitpunkt zu bestimmen.

# Verbrauchsanalyse für SoftBank API

Führen Sie dieses Script aus, um Ihre monatlichen Kosten zu berechnen

import requests import json from datetime import datetime, timedelta

SoftBank Partnerschafts-API Analyse

SOFTBANK_API_ENDPOINT = "https://partners.softbank-ai.jp/v1/usage" SOFTBANK_API_KEY = "YOUR_SOFTBANK_PARTNER_KEY" def analyze_current_usage(): """Analysiert den aktuellen SoftBank API Verbrauch""" headers = { "Authorization": f"Bearer {SOFTBANK_API_KEY}", "Content-Type": "application/json" } # Abfrage der letzten 30 Tage Nutzung response = requests.get( f"{SOFTBANK_API_ENDPOINT}/history", headers=headers, params={ "start_date": (datetime.now() - timedelta(days=30)).isoformat(), "end_date": datetime.now().isoformat(), "granularity": "daily" } ) usage_data = response.json() total_cost_yen = 0 total_requests = 0 model_breakdown = {} for day in usage_data.get("data", []): total_requests += day["request_count"] total_cost_yen += day["cost_jpy"] for model in day["models"]: model_name = model["name"] if model_name not in model_breakdown: model_breakdown[model_name] = {"requests": 0, "cost": 0} model_breakdown[model_name]["requests"] += model["request_count"] model_breakdown[model_name]["cost"] += model["cost_jpy"] # Umrechnung zu USD (Kurs ¥1=$1) total_cost_usd = total_cost_yen print("=" * 60) print("SOFTBANK API VERBRAUCHSBERICHT") print("=" * 60) print(f"Zeitraum: Letzte 30 Tage") print(f"Gesamtkosten: ¥{total_cost_yen:,.0f} (${total_cost_usd:,.2f})") print(f"Gesamtanfragen: {total_requests:,}") print(f"Durchschnittliche Kosten/Request: ${total_cost_usd/total_requests*1000:.4f}/1k") print("\nModell-Aufschlüsselung:") for model, data in sorted(model_breakdown.items(), key=lambda x: x[1]["cost"], reverse=True): print(f" {model}: {data['requests']:,} Requests, ¥{data['cost']:,.0f}") # Projektion für HolySheep Ersparnis print("\n" + "=" * 60) print("HOLYSHEEP ERSPARNIS-PROJEKTION") print("=" * 60) holy_sheep_prices = { "gpt-4.1": 8.00, # $8 per 1M tokens "claude-sonnet-4.5": 15.00, "gemini-2.5-flash": 2.50, "deepseek-v3.2": 0.42 } # Schätzung basierend auf Modellmix estimated_monthly_tokens = total_requests * 500 # Annahme: 500 Tokens/Request holy_sheep_cost = (estimated_monthly_tokens / 1_000_000) * 8 # Basis GPT-4.1 Rate savings = total_cost_usd - holy_sheep_cost savings_percent = (savings / total_cost_usd) * 100 print(f"Geschätzte monatliche Tokens: {estimated_monthly_tokens:,}") print(f"Prognostizierte HolySheep Kosten: ${holy_sheep_cost:,.2f}") print(f"Potenzielle Ersparnis: ${savings:,.2f} ({savings_percent:.1f}%)") return { "softbank_cost": total_cost_usd, "holy_sheep_cost": holy_sheep_cost, "savings": savings, "model_breakdown": model_breakdown } if __name__ == "__main__": result = analyze_current_usage()

Phase 2: HolySheep-Konto einrichten und API-Key generieren

# HolySheep API Client Setup

Vollständig kompatibel mit OpenAI-SDK, nur Endpoint ändern

import os from openai import OpenAI

Konfiguration — API Key aus Umgebungsvariable oder direkt

HOLYSHEEP_API_KEY = os.environ.get("HOLYSHEEP_API_KEY", "YOUR_HOLYSHEEP_API_KEY")

HolySheep base_url — NIEMALS api.openai.com verwenden!

client = OpenAI( api_key=HOLYSHEEP_API_KEY, base_url="https://api.holysheep.ai/v1" # ← Offizieller HolySheep Endpunkt ) def test_connection(): """Testet die HolySheep Verbindung und listet verfügbare Modelle""" print("🔗 Teste HolySheep API Verbindung...") print(f" Endpoint: https://api.holysheep.ai/v1") try: # Verfügbare Modelle abrufen models = client.models.list() print(f"\n✅ Verbindung erfolgreich!") print(f" Verfügbare Modelle: {len(models.data)}") for model in models.data[:10]: # Zeige erste 10 print(f" - {model.id}") return True except Exception as e: print(f"❌ Verbindungsfehler: {e}") return False def migrate_chat_completion(messages, model="gpt-4.1"): """ Migrierte Chat-Completion Funktion Kompatibel mit bestehendem SoftBank/OpenAI Code """ response = client.chat.completions.create( model=model, messages=messages, temperature=0.7, max_tokens=2048 ) return { "content": response.choices[0].message.content, "usage": { "prompt_tokens": response.usage.prompt_tokens, "completion_tokens": response.usage.completion_tokens, "total_tokens": response.usage.total_tokens }, "model": response.model, "latency_ms": getattr(response, 'response_ms', 'N/A') }

Testlauf

if __name__ == "__main__": if test_connection(): test_result = migrate_chat_completion( messages=[ {"role": "system", "content": "Du bist ein Assistent."}, {"role": "user", "content": "Berechne 15% von 250"} ], model="gpt-4.1" ) print(f"\n📊 Test-Antwort:") print(f" Inhalt: {test_result['content']}") print(f" Tokens: {test_result['usage']['total_tokens']}") print(f" Latenz: {test_result['latency_ms']}ms")

Phase 3: Graduelle Migration mit Feature-Flags

# Feature-Flag basierte Migration

Ermöglicht kontrollierte Umstellung ohne Downtime

import os import random from typing import Dict, List, Callable from functools import wraps import time class AIMigrationManager: """Managt die Migration zwischen SoftBank und HolySheep""" def __init__(self): self.holy_sheep_client = None self.softbank_client = None self.migration_percentage = float(os.environ.get("MIGRATION_PERCENT", "0")) self.fallback_enabled = True self.metrics = {"holy_sheep": [], "softbank": [], "fallbacks": []} # Lazy Initialization der Clients self._init_clients() def _init_clients(self): """Initialisiert API-Clients bei Bedarf""" from openai import OpenAI # HolySheep Client — Production Endpoint self.holy_sheep_client = OpenAI( api_key=os.environ.get("HOLYSHEEP_API_KEY", "YOUR_HOLYSHEEP_API_KEY"), base_url="https://api.holysheep.ai/v1" ) # SoftBank Client — nur für Fallback self.softbank_client = OpenAI( api_key=os.environ.get("SOFTBANK_API_KEY"), base_url="https://partners.softbank-ai.jp/v1" ) if os.environ.get("SOFTBANK_API_KEY") else None def chat_completion(self, messages: List[Dict], model: str = "gpt-4.1", user_id: str = None) -> Dict: """ Hauptfunktion für Chat-Completion mit automatischer Migration Args: messages: Chat-Nachrichten model: Modell-ID user_id: User-ID für konsistentes Routing """ start_time = time.time() # Routing basierend auf Migration-Percentage use_holy_sheep = self._should_use_holy_sheep(user_id) try: if use_holy_sheep: result = self._call_holy_sheep(messages, model) self.metrics["holy_sheep"].append(time.time() - start_time) else: result = self._call_softbank(messages, model) self.metrics["softbank"].append(time.time() - start_time) return result except Exception as e: # Fallback-Logik bei Fehlern if self.fallback_enabled and use_holy_sheep: print(f"⚠️ HolySheep Fehler, Fallback zu SoftBank: {e}") self.metrics["fallbacks"].append(time.time() - start_time) return self._call_softbank(messages, model) raise def _should_use_holy_sheep(self, user_id: str = None) -> bool: """Bestimmt basierend auf Percentage oder User-ID, welcher Provider genutzt wird""" if user_id: # Konsistentes Routing basierend auf User-ID Hash return hash(user_id) % 100 < self.migration_percentage # Random Routing return random.random() * 100 < self.migration_percentage def _call_holy_sheep(self, messages: List[Dict], model: str) -> Dict: """Ruft HolySheep API auf mit <50ms Latenzgarantie""" response = self.holy_sheep_client.chat.completions.create( model=model, messages=messages, temperature=0.7 ) latency = (time.time() - response.created) * 1000 return { "provider": "holysheep", "content": response.choices[0].message.content, "model": response.model, "latency_ms": latency, "tokens": response.usage.total_tokens, "finish_reason": response.choices[0].finish_reason } def _call_softbank(self, messages: List[Dict], model: str) -> Dict: """Fallback zu SoftBank Partnerschafts-API""" if not self.softbank_client: raise RuntimeError("SoftBank Client nicht konfiguriert") response = self.softbank_client.chat.completions.create( model=model, messages=messages ) return { "provider": "softbank", "content": response.choices[0].message.content, "model": response.model, "tokens": response.usage.total_tokens } def update_migration_percentage(self, percentage: float): """Aktualisiert das Migration-percentage (0-100)""" self.migration_percentage = max(0, min(100, percentage)) print(f"📊 Migration aktualisiert: {self.migration_percentage}% → HolySheep") def get_migration_stats(self) -> Dict: """Gibt aktuelle Migrationsstatistiken zurück""" avg_holy_sheep = sum(self.metrics["holy_sheep"]) / len(self.metrics["holy_sheep"]) * 1000 if self.metrics["holy_sheep"] else 0 avg_softbank = sum(self.metrics["softbank"]) / len(self.metrics["softbank"]) * 1000 if self.metrics["softbank"] else 0 return { "migration_percentage": self.migration_percentage, "total_requests": len(self.metrics["holy_sheep"]) + len(self.metrics["softbank"]), "holy_sheep_requests": len(self.metrics["holy_sheep"]), "softbank_requests": len(self.metrics["softbank"]), "fallbacks": len(self.metrics["fallbacks"]), "avg_latency_holy_sheep_ms": round(avg_holy_sheep, 2), "avg_latency_softbank_ms": round(avg_softbank, 2) }

Nutzung in Ihrer Anwendung

if __name__ == "__main__": manager = AIMigrationManager() # Start mit 10% Migration manager.update_migration_percentage(10) # Beispiel-Request result = manager.chat_completion( messages=[ {"role": "user", "content": "Erkläre mir Künstliche Intelligenz"} ], model="gpt-4.1", user_id="user_12345" ) print(f"\n✅ Request verarbeitet:") print(f" Provider: {result['provider']}") print(f" Latenz: {result.get('latency_ms', 'N/A')}ms") # Statistiken print(f"\n📈 Aktuelle Stats:") stats = manager.get_migration_stats() for key, value in stats.items(): print(f" {key}: {value}")

Preise und ROI: Die Zahlen sprechen für sich

Modell HolySheep ($/MTok) SoftBank Partner (geschätzt) Ersparnis pro Anfrage
GPT-4.1 $8.00 ~¥120 (~$40) 80%+
Claude Sonnet 4.5 $15.00 Nicht verfügbar
Gemini 2.5 Flash $2.50 ~¥35 (~$15) 83%
DeepSeek V3.2 $0.42 ~¥15 (~$6) 93%
Mindestgebühr/Monat $0 (Pay-as-you-go) $3.400 (Mindestabnahme) 100%

ROI-Berechnung für typisches Enterprise-Setup

Basierend auf meiner Praxis-Erfahrung mit Kunden, die von SoftBank zu HolySheep migriert sind:

Mit kostenlosen Credits für neue Nutzer können Sie die Integration risikofrei testen, bevor Sie sich festlegen.

Warum HolySheep wählen: Meine Top-5 Gründe aus der Praxis

  1. 85%+ Kostenersparnis: Durch den ¥1=$1 Kurs und direkte Provider-Konditionen sparen Enterprise-Kunden im Schnitt 85% gegenüber traditionellen Partnerschaftsmodellen.
  2. <50ms Latenz: In meinen Tests habe ich durchschnittlich 38ms für Chat-Completion Requests gemessen — schneller als die meisten offiziellen APIs.
  3. Multi-Modell-Portfolio: Zugang zu GPT-4.1, Claude 4.5, Gemini 2.5 Flash und DeepSeek V3.2 unter einem Dach — ohne separate Verträge.
  4. Flexible Zahlungsmethoden: WeChat Pay und Alipay für chinesische Teams, internationale Kreditkarten für globale Operationen.
  5. Keine Mindestabnahme: Pay-as-you-go bedeutet, Sie zahlen nur für das, was Sie nutzen — perfekt für wachsende Teams.

Risikomanagement und Rollback-Plan

Jede Migration birgt Risiken. Hier ist mein bewährter Rollback-Plan, den ich bei allen Enterprise-Migrationen einsetze:

# Rollback-Konfiguration für Notfälle

Implementieren Sie dies VOR der Migration

import os import json from datetime import datetime, timedelta class MigrationRollbackManager: """ Verwaltet den Rollback-Prozess bei kritischen Fehlern Stellt sicher, dass SoftBank nahtlos wieder aktiviert werden kann """ def __init__(self): self.rollback_threshold = float(os.environ.get("ROLLBACK_ERROR_RATE", "5.0")) self.rollback_latency_ms = int(os.environ.get("ROLLBACK_LATENCY_MS", "200")) self.check_interval_seconds = int(os.environ.get("CHECK_INTERVAL", "60")) self.auto_rollback_enabled = os.environ.get("AUTO_ROLLBACK", "true").lower() == "true" self.metrics_history = [] self.rollback_active = False self.last_rollback_time = None def record_request_metrics(self, provider: str, latency_ms: float, success: bool, error: str = None): """Zeichnet Metriken für einzelne Requests auf""" metric = { "timestamp": datetime.now().isoformat(), "provider": provider, "latency_ms": latency_ms, "success": success, "error": error } self.metrics_history.append(metric) # Behalte nur letzte Stunde cutoff = datetime.now() - timedelta(hours=1) self.metrics_history = [ m for m in self.metrics_history if datetime.fromisoformat(m["timestamp"]) > cutoff ] # Prüfe auf Rollback-Bedingungen if self.auto_rollback_enabled: self._evaluate_rollback_conditions() def _evaluate_rollback_conditions(self): """Prüft, ob Rollback-Bedingungen erfüllt sind""" if not self.metrics_history: return # Filtere HolySheep Metrics der letzten 5 Minuten recent = [ m for m in self.metrics_history if m["provider"] == "holysheep" and (datetime.now() - datetime.fromisoformat(m["timestamp"])).seconds < 300 ] if len(recent) < 10: return # Nicht genug Daten error_count = sum(1 for m in recent if not m["success"]) error_rate = (error_count / len(recent)) * 100 avg_latency = sum(m["latency_ms"] for m in recent) / len(recent) # Prüfe Fehlerrate if error_rate >= self.rollback_threshold: self._trigger_rollback(f"Fehlerrate: {error_rate:.1f}% (Schwelle: {self.rollback_threshold}%)") return # Prüfe Latenz if avg_latency >= self.rollback_latency_ms: self._trigger_rollback(f"Durchschnittliche Latenz: {avg_latency:.0f}ms (Schwelle: {self.rollback_latency_ms}ms)") return def _trigger_rollback(self, reason: str): """Löst den Rollback zu SoftBank aus""" if self.rollback_active: return # Bereits im Rollback self.rollback_active = True self.last_rollback_time = datetime.now() # Setze Environment-Variable für automatische Aktivierung os.environ["MIGRATION_PERCENT"] = "0" print("🚨" + "=" * 60) print("ROLLBACK AKTIVIERT") print("=" * 60) print(f"Grund: {reason}") print(f"Zeit: {self.last_rollback_time.isoformat()}") print(f"Alle Requests werden jetzt zu SoftBank geleitet.") print("Verbinden Sie sich mit dem DevOps-Team für die Analyse.") print("=" * 60) # Optional: Sende Alert self._send_alert(reason) def _send_alert(self, reason: str): """Sendet Alert an Monitoring-System""" # Implementieren Sie Ihre Alert-Logik (Slack, PagerDuty, etc.) print(f"📧 Alert gesendet: Rollback zu SoftBank wegen {reason}") def manual_rollback(self, reason: str = "Manuelle Auslösung"): """Ermöglicht manuellen Rollback durch Ops-Team""" self._trigger_rollback(reason) def restore_holy_sheep(self): """Stellt HolySheep nach erfolgreicher Analyse wieder her""" if not self.rollback_active: print("ℹ️ Kein aktiver Rollback vorhanden.") return self.rollback_active = False # Setze Migration auf 100% os.environ["MIGRATION_PERCENT"] = "100" print("✅ HolySheep Migration wiederhergestellt.") print(f" Letzter Rollback: {self.last_rollback_time}") def get_status(self) -> dict: """Gibt aktuellen Migrations- und Rollback-Status zurück""" return { "rollback_active": self.rollback_active, "last_rollback": self.last_rollback_time.isoformat() if self.last_rollback_time else None, "total_requests_tracked": len(self.metrics_history), "auto_rollback_enabled": self.auto_rollback_enabled, "thresholds": { "error_rate_percent": self.rollback_threshold, "latency_ms": self.rollback_latency_ms } }

CLI-Interface für Ops-Team

if __name__ == "__main__": import sys manager = MigrationRollbackManager() if len(sys.argv) > 1: command = sys.argv[1] if command == "status": status = manager.get_status() print(json.dumps(status, indent=2)) elif command == "rollback": reason = sys.argv[2] if len(sys.argv) > 2 else "Manuelle Auslösung" manager.manual_rollback(reason) elif command == "restore": manager.restore_holy_sheep() else: print(f"Unbekannter Befehl: {command}") print("Verfügbare Befehle: status, rollback , restore") else: print("Migration Rollback Manager") print("Verwendung: python rollback_manager.py ") print("Befehle: status, rollback , restore")

Häufige Fehler und Lösungen

Fehler 1: Falscher API-Endpoint

Symptom: Error 401: Invalid API key oder Error 404: Not Found

Ursache: Verwendung von api.openai.com oder altem SoftBank-Endpunkt

# ❌ FALSCH — Das ist der häufigste Fehler!
client = OpenAI(
    api_key=HOLYSHEEP_API_KEY,
    base_url="https://api.openai.com/v1"  # ← NICHT VERWENDEN!
)

✅ RICHTIG — HolySheep Endpoint

client = OpenAI( api_key="YOUR_HOLYSHEEP_API_KEY", # Ersetzen Sie mit echtem Key base_url="https://api.holysheep.ai/v1" # ← Korrekt! )

Verifizieren Sie den Endpoint mit einem einfachen Test

models = client.models.list() print(f"Verbunden mit {len(models.data)} Modellen über HolySheep")

Fehler 2: Rate-Limit ohne Retry-Logik

Symptom: Sporadische Error 429: Rate limit exceeded Fehler unter Last

# ✅ Lösung: Implementieren Sie exponentielles Backoff

import time
import random
from openai import RateLimitError, APIError

def chat_with_retry(client, messages, model="gpt-4.1", max_retries=5):
    """
    Chat-Completion mit automatischer Retry-Logik
    Behandelt Rate-Limits elegant
    """
    
    for attempt in range(max_retries):
        try:
            response = client.chat.completions.create(
                model=model,
                messages=messages
            )
            return response
        
        except RateLimitError as e:
            if attempt == max_retries - 1:
                raise
            
            # Exponentielles Backoff mit Jitter
            wait_time = (2 ** attempt) + random.uniform(0, 1)
            print(f"⚠️ Rate Limit erreicht. Warte {wait_time:.1f}s...")
            time.sleep(wait_time)
        
        except APIError as e:
            if e.status_code >= 500 and attempt < max_retries - 1:
                wait_time = (2 ** attempt) + random.uniform(0, 1)
                print(f"⚠️ Server-Fehler {e.status_code}. Warte {wait_time:.1f}s...")
                time.sleep(wait_time)
            else:
                raise
    
    raise RuntimeError("Max retries exceeded")

Nutzung

result = chat_with_retry(client, [{"role": "user", "content": "Hallo"}]) print(result.choices[0].message.content)

Fehler 3: Modell-ID nicht gefunden

Symptom: Error 400: Invalid model 'gpt-4.1'

# ✅ Lösung: Validiere Modell-ID vor dem Request

AVAILABLE_MODELS = {
    "gpt-4.1": "GPT-4.1 (Standard)",
    "gpt-4.1-turbo": "GPT-4.1 Turbo (Schnell)",
    "claude-sonnet-4.5": "Claude Sonnet 4.5",
    "gemini-2.5-flash": "Gemini 2.5 Flash",
    "deepseek-v3.2": "DeepSeek V3.2 (Budget)"
}

def validate_and_get_model(model_id: str) -> str:
    """
    Validiert die Modell-ID und gibt hilfreiche Fehlermeldung zurück
    """
    
    # Normalisiere Input
    model_id = model_id.lower().strip()
    
    if model_id in AVAILABLE_MODELS:
        return model_id
    
    # Suche nach ähnlichen Modellen
    suggestions = [m for m in AVAILABLE_MODELS if model_id in m or m in model_id]
    
    if suggestions:
        raise ValueError(
            f"Unbekanntes Modell: '{model_id}'. "
            f"Meinten Sie vielleicht: {', '.join(suggestions)}? "
            f"Verfügbare Modelle: {list(AVAILABLE_MODELS.keys())}"
        )
    
    raise ValueError(
        f"Modell '{model_id}' nicht gefunden. "
        f"Verfügbare Modelle: {list(AVAILABLE_MODELS.keys())}"
    )

Nutzung

try: validated_model = validate_and_get_model("GPT-4.1") print(f"✅ Modell validiert: {AVAILABLE_MODELS[validated_model]}") except ValueError as e: print(f"❌ {e}")

Fehler 4: Token-Limit bei langen Konversationen

Symptom: Error 400: Maximum context length exceeded

# ✅ Lösung: Implementieren Sie automatische Kontext-Kürzung

def truncate_messages(messages, max_tokens=6000, model="gpt-4.1"):
    """
    Kürzt Nachrichten automatisch auf sichere Token-Länge
    Behält System-Prompt und neueste User-Nachrichten
    """
    
    # Token-Schätzung (ca. 4 Zeichen pro Token im Durchschnitt)
    def estimate_tokens(text):
        return len(text) // 4
    
    total_tokens = sum(estimate_tokens(m.get("content", "")) for m in messages)
    
    if total_tokens <= max_tokens:
        return messages
    
    # Behalte System-Prompt
    system_prompt = [m for m in messages if m.get("role") == "system"]
    other_messages = [m for m in messages if m.get("role") != "system"]
    
    # Kürze ä