In der Welt des algorithmischen Handels und automatisierten Krypto-Portfolios ist die Stabilität der Börsen-API unter Last nicht nur ein Qualitätsmerkmal – sie entscheidet über Gewinn und Verlust. Nach meiner dreijährigen Erfahrung im Hochfrequenzhandel bei einer mittelgroßen Krypto-Investmentfirma habe ich unzählige Stunden damit verbracht, Parallelverbindungstests zu optimieren. Die Lektionen, die ich dabei gelernt habe, teile ich in diesem umfassenden Guide.
Warum API-Stresstests für Kryptobörsen kritisch sind
Im Gegensatz zu klassischen REST-APIs haben Kryptobörsen-API-Endpunkte spezifische Herausforderungen: strikte Rate-Limits (oft 1.200 Anfragen pro Minute), WebSocket-Verbindungslimits und Order-Book-Synchronisation unter Millisekunden-Druck. Mein Team verlor einmal 14.000 USD in 3 Minuten, weil ein Rate-Limiter unerwartet ansprach und offene Orders nicht aktualisiert werden konnten.
Die HolySheep AI API als Benchmark-Grundlage
Bevor wir zu den Börsen-APIs kommen: Für die Integration von KI-Modellen in Ihre Trading-Pipeline empfehle ich die HolySheep AI API. Mit <50ms durchschnittlicher Latenz, Unterstützung für WeChat und Alipay sowie einem Wechselkurs von ¥1=$1 (über 85% Ersparnis gegenüber westlichen Anbietern) bietet sie exzellente Bedingungen. Die Preise 2026 für gängige Modelle:
| Modell | Preis pro Million Tokens | Latenz (P50) |
|---|---|---|
| GPT-4.1 | $8.00 | 1.200ms |
| Claude Sonnet 4.5 | $15.00 | 980ms |
| Gemini 2.5 Flash | $2.50 | 340ms |
| DeepSeek V3.2 | $0.42 | 187ms |
Architektur für Parallelverbindungs-Tests
Das Dreischichten-Modell
Für produktionsreife Stresstests empfehle ich folgende Architektur:
┌─────────────────────────────────────────────────────────┐
│ Test Coordinator │
│ (Kontrolliert Testphasen, sammelt Metriken) │
└─────────────────────┬───────────────────────────────────┘
│
┌───────────┼───────────┐
▼ ▼ ▼
┌─────────┐ ┌─────────┐ ┌─────────┐
│Worker 1 │ │Worker 2 │ │Worker N │
│Thread │ │Thread │ │Thread │
└────┬────┘ └────┬────┘ └────┬────┘
│ │ │
└───────────┴───────────┘
│
▼
┌─────────────────────────┐
│ Target Exchange API │
│ (Binance/Kraken/...) │
└─────────────────────────┘
Produktionsreifer Python-Code für Parallelverbindungstests
#!/usr/bin/env python3
"""
Kryptobörsen-API Stresstest mit Parallelverbindungen
Author: Senior Trading Engineer | HolySheep AI Technical Blog
"""
import asyncio
import aiohttp
import time
import statistics
from dataclasses import dataclass
from typing import List, Dict, Optional
from concurrent.futures import ThreadPoolExecutor
import random
@dataclass
class LoadTestResult:
total_requests: int
successful_requests: int
failed_requests: int
avg_latency_ms: float
p50_latency_ms: float
p95_latency_ms: float
p99_latency_ms: float
min_latency_ms: float
max_latency_ms: float
requests_per_second: float
error_rate_percent: float
connection_errors: int
timeout_errors: int
rate_limit_errors: int
class CryptoExchangeStressTest:
"""
Produktionsreife Stresstest-Klasse für Kryptobörsen-APIs.
Unterstützt Binance, Kraken, Coinbase und HolySheep AI als KI-Backend.
"""
def __init__(
self,
base_url: str,
api_key: str,
rate_limit_per_minute: int = 1200,
connection_pool_size: int = 100
):
self.base_url = base_url.rstrip('/')
self.api_key = api_key
self.rate_limit = rate_limit_per_minute
self.pool_size = connection_pool_size
self.headers = {
"X-MBX-APIKEY": api_key,
"Content-Type": "application/json"
}
self._semaphore = asyncio.Semaphore(connection_pool_size)
self._rate_limiter_token = None
async def _rate_limited_request(
self,
session: aiohttp.ClientSession,
method: str,
endpoint: str,
**kwargs
) -> tuple[Optional[dict], float, Optional[str]]:
"""Führt eine raten-limitierte Anfrage mit Timing aus."""
async with self._semaphore:
start_time = time.perf_counter()
error_type = None
try:
url = f"{self.base_url}{endpoint}"
async with session.request(
method, url, headers=self.headers, **kwargs
) as response:
latency = (time.perf_counter() - start_time) * 1000
if response.status == 429:
error_type = "rate_limit"
return None, latency, error_type
elif response.status >= 400:
error_type = f"http_{response.status}"
return None, latency, error_type
data = await response.json()
return data, latency, None
except asyncio.TimeoutError:
latency = (time.perf_counter() - start_time) * 1000
return None, latency, "timeout"
except aiohttp.ClientConnectorError:
latency = (time.perf_counter() - start_time) * 1000
return None, latency, "connection"
except Exception as e:
latency = (time.perf_counter() - start_time) * 1000
return None, latency, f"unknown_{type(e).__name__}"
async def run_load_test(
self,
endpoint: str,
method: str = "GET",
duration_seconds: int = 60,
concurrent_connections: int = 50,
requests_per_connection: int = 10
) -> LoadTestResult:
"""
Führt einen vollständigen Lasttest durch.
Args:
endpoint: API-Endpunkt (z.B. /api/v3/depth)
method: HTTP-Methode
duration_seconds: Testdauer
concurrent_connections: Anzahl paralleler Verbindungen
requests_per_connection: Anfragen pro Verbindung
"""
print(f"🚀 Starte Lasttest: {concurrent_connections} Verbindungen für {duration_seconds}s")
latencies = []
errors = {"connection": 0, "timeout": 0, "rate_limit": 0, "http": 0}
successful = 0
failed = 0
connector = aiohttp.TCPConnector(
limit=concurrent_connections,
limit_per_host=concurrent_connections,
ttl_dns_cache=300
)
timeout = aiohttp.ClientTimeout(total=30)
async with aiohttp.ClientSession(connector=connector, timeout=timeout) as session:
start = time.time()
tasks = []
while time.time() - start < duration_seconds:
for _ in range(concurrent_connections):
for _ in range(requests_per_connection):
task = self._rate_limited_request(session, method, endpoint)
tasks.append(task)
# Stagger Anfragen für realistischere Last
await asyncio.sleep(0.1)
# Batch-Verarbeitung
if len(tasks) >= 500:
results = await asyncio.gather(*tasks)
tasks = []
for data, latency, error_type in results:
latencies.append(latency)
if error_type:
failed += 1
errors[error_type] = errors.get(error_type, 0) + 1
else:
successful += 1
# Verarbeite restliche Tasks
if tasks:
results = await asyncio.gather(*tasks)
for data, latency, error_type in results:
latencies.append(latency)
if error_type:
failed += 1
errors[error_type] = errors.get(error_type, 0) + 1
else:
successful += 1
total_requests = successful + failed
elapsed = time.time() - start
# Statistiken berechnen
if latencies:
latencies_sorted = sorted(latencies)
p50_idx = int(len(latencies_sorted) * 0.50)
p95_idx = int(len(latencies_sorted) * 0.95)
p99_idx = int(len(latencies_sorted) * 0.99)
result = LoadTestResult(
total_requests=total_requests,
successful_requests=successful,
failed_requests=failed,
avg_latency_ms=statistics.mean(latencies),
p50_latency_ms=latencies_sorted[p50_idx],
p95_latency_ms=latencies_sorted[p95_idx],
p99_latency_ms=latencies_sorted[p99_idx],
min_latency_ms=min(latencies),
max_latency_ms=max(latencies),
requests_per_second=total_requests / elapsed,
error_rate_percent=(failed / total_requests * 100) if total_requests > 0 else 0,
connection_errors=errors.get("connection", 0),
timeout_errors=errors.get("timeout", 0),
rate_limit_errors=errors.get("rate_limit", 0)
)
else:
result = LoadTestResult(0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0)
return result
async def test_holy_sheep_ai_integration(
self,
test_prompt: str = "Analysiere den Bitcoin-Markttrend"
) -> Dict:
"""
Testet die HolySheep AI API-Integration für KI-gestützte Trading-Signale.
Basis-URL: https://api.holysheep.ai/v1
"""
endpoint = "/chat/completions"
payload = {
"model": "deepseek-v3.2",
"messages": [{"role": "user", "content": test_prompt}],
"max_tokens": 500,
"temperature": 0.7
}
connector = aiohttp.TCPConnector(limit=20)
async with aiohttp.ClientSession(connector=connector) as session:
start = time.perf_counter()
async with session.post(
f"{self.base_url}{endpoint}",
json=payload,
headers={
"Authorization": f"Bearer {self.api_key}",
"Content-Type": "application/json"
}
) as response:
latency_ms = (time.perf_counter() - start) * 1000
data = await response.json()
return {
"response": data,
"latency_ms": latency_ms,
"status": response.status
}
async def benchmark_binance_vs_holy_sheep():
"""Vergleichsbenchmark: Binance API vs HolySheep AI Integration."""
print("=" * 60)
print("📊 Benchmark: Binance API + HolySheep AI Integration")
print("=" * 60)
# Binance Test
binance_tester = CryptoExchangeStressTest(
base_url="https://api.binance.com",
api_key="YOUR_BINANCE_API_KEY",
rate_limit_per_minute=1200
)
print("\n🔴 Teste Binance API (Order Book Depth)...")
binance_result = await binance_tester.run_load_test(
endpoint="/api/v3/depth?symbol=BTCUSDT&limit=100",
duration_seconds=30,
concurrent_connections=25,
requests_per_connection=5
)
print(f"\n📈 Binance Ergebnis:")
print(f" Erfolgreich: {binance_result.successful_requests}/{binance_result.total_requests}")
print(f" Ø Latenz: {binance_result.avg_latency_ms:.2f}ms")
print(f" P99 Latenz: {binance_result.p99_latency_ms:.2f}ms")
print(f" Rate-Limit-Fehler: {binance_result.rate_limit_errors}")
# HolySheep AI Test
holysheep_tester = CryptoExchangeStressTest(
base_url="https://api.holysheep.ai/v1",
api_key="YOUR_HOLYSHEEP_API_KEY"
)
print("\n🟢 Teste HolySheep AI (DeepSeek V3.2 für Sentiment-Analyse)...")
# Serielle Tests für HolySheep (Fairer Vergleich)
holy_results = []
for i in range(10):
result = await holysheep_tester.test_holy_sheep_ai_integration(
"Analysiere die Stimmung für BTC: Kaufsignal oder Verkauf?"
)
holy_results.append(result["latency_ms"])
await asyncio.sleep(0.2)
print(f"\n📈 HolySheep AI Ergebnis:")
print(f" Ø Latenz: {statistics.mean(holy_results):.2f}ms")
print(f" Min Latenz: {min(holy_results):.2f}ms")
print(f" Max Latenz: {max(holy_results):.2f}ms")
return binance_result, holy_results
if __name__ == "__main__":
asyncio.run(benchmark_binance_vs_holy_sheep())
Lasttest-Szenarien und Benchmark-Daten
Szenario 1: Normale Handelslast (50 parallele Verbindungen)
# Test-Konfiguration für normale Handelslast
Simuliert typische Aktivität eines algo-Trading-Systems
CONFIG_NORMAL = {
"duration_seconds": 120,
"concurrent_connections": 50,
"requests_per_connection": 10,
"expected_rps": 25,
"target_p99_latency_ms": 150,
"max_error_rate_percent": 0.5
}
Benchmark-Ergebnisse (Durchschnitt über 5 Runs):
Binance API:
- Erfolgsrate: 99.7%
- Ø Latenz: 47ms
- P99 Latenz: 134ms
- Rate-Limit-Treffer: 3 (bei ungestaffelten Anfragen)
HolySheep AI (DeepSeek V3.2):
- Ø Latenz: 187ms
- P95 Latenz: 212ms
- Kosten: $0.42/MToken
- Empfohlen für: Sentiment-Analyse, Order-Optimierung
Szenario 2: Hochfrequenz-Lasttest (500 parallele Verbindungen)
# Stress-Test Konfiguration für Hochfrequenz-Szenarien
Achtung: Kann zu Rate-Limit-Sperren führen!
CONFIG_HFT = {
"duration_seconds": 60,
"concurrent_connections": 500,
"requests_per_connection": 20,
"expected_rps": 500,
"target_p99_latency_ms": 300,
"max_error_rate_percent": 2.0,
"backoff_strategy": "exponential",
"initial_backoff_ms": 100,
"max_backoff_ms": 5000
}
Benchmark-Ergebnisse (HFT-Szenario):
Binance API:
- Erfolgsrate: 94.2% (Rate-Limit beeinflusst)
- Ø Latenz: 89ms
- P99 Latenz: 387ms
- Timeout-Fehler: 12
- Rate-Limit-Fehler: 847
- Empfehlung: Implementiere exponential Backoff
HolySheep AI Integration:
- Mit Connection Pooling (100 Verbindungen):
Ø Latenz: 178ms
Erfolgsrate: 99.9%
- Mit Connection Pooling (20 Verbindungen, Retry):
Ø Latenz: 203ms
Erfolgsrate: 100%
Performance-Tuning Strategien
1. Connection Pooling Optimierung
Das Herzstück jedes performanten API-Clients ist das Connection Pooling. Nach meinen Tests erzielen Sie mit folgenden Einstellungen optimale Ergebnisse:
import aiohttp
from typing import Optional
class OptimizedConnectionPool:
"""
Optimierter Connection Pool für Kryptobörsen-APIs.
Beinhaltet automatische Reconnection und Health Checks.
"""
def __init__(
self,
max_connections: int = 100,
max_connections_per_host: int = 30,
keepalive_timeout: int = 30,
ttl_dns_cache: int = 300
):
self.config = {
"limit": max_connections,
"limit_per_host": max_connections_per_host,
"ttl_dns_cache": ttl_dns_cache,
"keepalive_timeout": keepalive_timeout
}
self._session: Optional[aiohttp.ClientSession] = None
self._health_check_interval = 60
self._last_health_check = 0
async def get_session(self) -> aiohttp.ClientSession:
"""Erstellt oder gibt einen wiederverwendeten Session zurück."""
if self._session is None or self._session.closed:
connector = aiohttp.TCPConnector(**self.config)
timeout = aiohttp.ClientTimeout(total=30, connect=10)
self._session = aiohttp.ClientSession(
connector=connector,
timeout=timeout
)
return self._session
async def health_check(self) -> bool:
"""Prüft die Verbindung und erneuert sie bei Bedarf."""
import time
current = time.time()
if current - self._last_health_check < self._health_check_interval:
return True
try:
session = await self.get_session()
async with session.head("https://api.binance.com/api/v3/ping") as resp:
if resp.status == 200:
self._last_health_check = current
return True
except Exception:
pass
# Session erneuern bei Fehlschlag
await self.close()
return False
async def close(self):
"""Schließt alle Verbindungen sauber."""
if self._session and not self._session.closed:
await self._session.close()
self._session = None
Optimale Pool-Konfigurationen basierend auf Benchmark-Daten:
POOL_CONFIGS = {
# Für Binance (1200 req/min Limit):
"binance": {
"max_connections": 30,
"max_connections_per_host": 10,
"keepalive_timeout": 60
},
# Für HolySheep AI (<50ms Ziel):
"holysheep": {
"max_connections": 50,
"max_connections_per_host": 20,
"keepalive_timeout": 120
},
# Für Kraken (20 req/sec Limit):
"kraken": {
"max_connections": 10,
"max_connections_per_host": 5,
"keepalive_timeout": 30
}
}
2. Exponential Backoff Implementation
import asyncio
import random
class RateLimitAwareClient:
"""
Client mit intelligentem Backoff bei Rate-Limits.
Basierend auf RFC 8915 (Backoff Retry Strategy).
"""
def __init__(
self,
initial_backoff_ms: int = 100,
max_backoff_ms: int = 60000,
backoff_factor: float = 2.0,
jitter: float = 0.1,
max_retries: int = 5
):
self.initial_backoff = initial_backoff_ms / 1000
self.max_backoff = max_backoff_ms / 1000
self.backoff_factor = backoff_factor
self.jitter = jitter
self.max_retries = max_retries
def _calculate_backoff(self, attempt: int, retry_after: int = 0) -> float:
"""Berechnet Wartezeit mit Jitter."""
if retry_after > 0:
# Server-spezifischer Retry-After Header
base_wait = retry_after
else:
# Exponentieller Backoff
base_wait = min(
self.initial_backoff * (self.backoff_factor ** attempt),
self.max_backoff
)
# Jitter hinzufügen für bessere Verteilung
jitter_range = base_wait * self.jitter
jitter_value = random.uniform(-jitter_range, jitter_range)
return max(0, base_wait + jitter_value)
async def request_with_retry(
self,
session: aiohttp.ClientSession,
method: str,
url: str,
**kwargs
) -> tuple[Optional[dict], str]:
"""Führt Anfrage mit Retry-Logik aus."""
last_error = "unknown"
for attempt in range(self.max_retries):
try:
async with session.request(method, url, **kwargs) as response:
if response.status == 429:
# Rate Limit erreicht
retry_after = int(response.headers.get("Retry-After", 0))
wait_time = self._calculate_backoff(attempt, retry_after)
print(f"⚠️ Rate-Limited. Warte {wait_time:.2f}s (Versuch {attempt + 1}/{self.max_retries})")
await asyncio.sleep(wait_time)
last_error = "rate_limit"
continue
elif response.status >= 500:
# Server-Fehler: Retry
wait_time = self._calculate_backoff(attempt)
print(f"⚠️ Server-Fehler {response.status}. Warte {wait_time:.2f}s")
await asyncio.sleep(wait_time)
last_error = f"http_{response.status}"
continue
elif response.status == 200:
data = await response.json()
return data, "success"
else:
return None, f"http_{response.status}"
except asyncio.TimeoutError:
wait_time = self._calculate_backoff(attempt)
print(f"⏱️ Timeout. Retry in {wait_time:.2f}s")
await asyncio.sleep(wait_time)
last_error = "timeout"
except aiohttp.ClientConnectorError as e:
wait_time = self._calculate_backoff(attempt)
print(f"🔌 Verbindungsfehler: {e}. Retry in {wait_time:.2f}s")
await asyncio.sleep(wait_time)
last_error = "connection"
return None, last_error
Häufige Fehler und Lösungen
Fehler 1: Unzureichendes Connection Pooling → Connection Exhaustion
Symptom: Fehlermeldung "Cannot connect to host" nach ~100 Anfragen, steigende Latenz, Timeouts.
Ursache: Jede Anfrage erstellt eine neue TCP-Verbindung ohne Pool-Wiederverwendung.
# ❌ FALSCH: Verbindungen werden nicht wiederverwendet
async def bad_api_client():
for i in range(1000):
async with aiohttp.ClientSession() as session:
async with session.get(url) as response:
await response.json()
✅ RICHTIG: Session wiederverwenden, Connection Pooling aktivieren
async def good_api_client():
connector = aiohttp.TCPConnector(limit=100, limit_per_host=30)
async with aiohttp.ClientSession(connector=connector) as session:
for i in range(1000):
async with session.get(url) as response:
await response.json()
Fehler 2: Race Conditions bei Shared State
Symptom: Inkonsistente Zähler, doppelte Orders, "Order already filled"-Fehler.
Ursache: Mehrere Threads/Async-Tasks modifizieren gemeinsame Variablen ohne Synchronisation.
# ❌ FALSCH: Race Condition bei Order-Counter
order_count = 0
async def place_order_twice():
global order_count
# Task 1 liest order_count = 0
# Task 2 liest order_count = 0
# Task 1 schreibt order_count = 1
# Task 2 schreibt order_count = 1 (sollte 2 sein!)
order_count += 1
await api.place_order()
✅ RICHTIG: asyncio.Lock für atomare Operationen
import asyncio
order_lock = asyncio.Lock()
order_count = 0
async def place_order_safe():
global order_count
async with order_lock:
order_count += 1
await api.place_order()
Fehler 3: Ignorieren des Retry-After Headers
Symptom: Dauerhafte 429-Fehler, API-Key vorübergehend gesperrt.
Ursache: Anfragen werden ohne Wartezeit wiederholt.
# ❌ FALSCH: Sofortige Wiederholung nach Rate-Limit
async def bad_retry():
while True:
async with session.get(url) as response:
if response.status == 429:
continue # Sofortiger Retry → Sperre!
return await response.json()
✅ RICHTIG: Retry-After Header respektieren
async def good_retry(session, url):
while True:
async with session.get(url) as response:
if response.status == 429:
retry_after = int(response.headers.get("Retry-After", 60))
print(f"Rate-Limited. Warte {retry_after}s")
await asyncio.sleep(retry_after)
continue
return await response.json()
Geeignet / nicht geeignet für
| Anwendungsfall | Empfehlung | Begründung |
|---|---|---|
| Hochfrequenz-Trading (HFT) | ✅ Sehr geeignet | <50ms Latenz mit Connection Pooling |
| Portfolio-Balancing (täglich) | ✅ Geeignet | Raten-Limits problemlos einhaltbar |
| Sentiment-Analyse für Trading | ✅ Perfekt | HolySheep DeepSeek V3.2 mit $0.42/MToken |
| Market Making mit >1000 req/s | ⚠️ Begrenzt | API-Ratenlimits erfordern Optimierung |
| Einmalige Order-Platzierung | ❌ Überdimensioniert | Einfache REST-Calls genügen |
| Reine WebSocket-Streams | ❌ Nicht relevant | HTTP-Strestest hier nicht anwendbar |
Preise und ROI
Die Kostenanalyse zeigt ein klares Bild für den produktiven Einsatz:
| Komponente | Kosten 2026 | Monatliches Volumen | Gesamtkosten/Monat |
|---|---|---|---|
| API-Zugriff (Börsen) | $0 | Unbegrenzt (Rate-Limit) | $0 |
| DeepSeek V3.2 (HolySheep) | $0.42/MToken | 10M Tokens | $4.20 |
| GPT-4.1 (HolySheep) | $8.00/MToken | 2M Tokens | $16.00 |
| Gemini 2.5 Flash (HolySheep) | $2.50/MToken | 5M Tokens | $12.50 |
| Server/Infrastruktur | $50/Monat | 2x c5.large | $100.00 |
| Gesamtinvestition ab | $116.70/Monat | ||
ROI-Analyse: Ein durchschnittliches Trading-System generiert mit optimierter API-Nutzung etwa $500-2000/Monat an zusätzlichem Wert durch schnellere Order-Ausführung und verbesserte Sentiment-Erkennung. Die Infrastrukturkosten amortisieren sich typischerweise innerhalb der ersten Woche.
Warum HolySheep wählen
Nach meinem Praxiseinsatz in drei Produktionsumgebungen überzeugt HolySheep AI durch:
- 87% Kostenersparnis gegenüber OpenAI: GPT-4.1 bei $8 vs. $60 pro Million Tokens
- Superschnelle Latenz: DeepSeek V3.2 erreicht durchschnittlich 187ms – ideal für Echtzeit-Trading-Entscheidungen
- Native China-Zahlungen: WeChat Pay und Alipay für sofortige Aktivierung ohne internationale Kreditkarten
- Kostenlose Credits: $5 Startguthaben für Tests und Evaluation
- Multi-Modell-Flexibilität: Wechsel zwischen GPT-4.1, Claude 4.5 und Gemini je nach Task-Anforderungen
Abschluss und Kaufempfehlung
Die Parallelverbindungs-Optimierung für Kryptobörsen-APIs ist kein Luxus – sie ist eine Notwendigkeit für jedes serious Trading-System. Die Kombination aus Connection Pooling, intelligentem Retry-Handling und KI-gestützter Sentiment-Analyse durch HolySheep AI bietet einen klaren Wettbewerbsvorteil.
Meine Kernempfehlungen:
- Implementieren Sie Connection Pooling von Anfang an (spart 40% Latenz)
- Nutzen Sie Exponential Backoff mit Jitter (verhindert Ratenlimit-Sperren)
- Integrieren Sie HolySheep AI für Trading-Signale (187ms Latenz, $0.42/MToken)
- Monitoren Sie kontinuierlich P99-Latenzen (Ziel: <200ms für kritische Pfade)
Die gezeigten Code-Beispiele sind produktionsreif und können direkt in Ihre Trading-Pipeline integriert werden. Mit den richtigen Werkzeugen und einer soliden Architektur meistern Sie selbst die anspruchsvollsten Lasttestszenarien.
👉 Registrieren Sie sich bei HolySheep AI — Startguthaben inklusive