synthmagazine.com – Automatisierte KI-Content-Pipeline (End-to-End)

synthmagazine.com ist ein automatisiertes Online-Magazin für Synthesizer & elektronische Musik. Aus YouTube-Inhalten entstehen tagesaktuelle Artikel – inklusive Zitaten/Timecodes, Produktdaten und mehrsprachiger Ausspielung über mehrere Domains. Das Projekt zeigt: KI wird produktiv, wenn Prozesse, Schnittstellen und Qualitätsmechaniken sauber gebaut sind.

Kurzüberblick:

  • Ausgangslage: viele manuelle Einzelschritte (Download → Transkript → Text → Übersetzung → Publishing)

  • Ziel: wiederholbare, fehlertolerante Pipeline statt Copy/Paste

  • Ergebnis: stabiler Betrieb mit 2–5 Artikeln/Tag über mehrere Sprach-/Domain-Varianten

  • Charakter: eigener Produktivbetrieb als „Proof of Practice“

Ausgangslage

  • Viele Übergaben zwischen Tools/Teams: ein Fehler an einer Stelle stoppt die Kette.

  • Qualität schwankt, wenn Ausgaben nicht strukturiert sind (z. B. Zitate ohne Timecodes).

  • Mehrsprachigkeit erhöht Komplexität massiv, wenn sie nicht „by design“ mitgedacht wird.

  • Ohne Logging/Retry/Fehlergründe entsteht „stille“ Fehlerproduktion.


Zielbild

  • Strukturierte Outputs (Artikel als JSON mit Abschnitten/Zitaten/Timecodes), damit Publishing zuverlässig ist.

  • Fehlertoleranz: klare Zustände, Retries, nachvollziehbare Fehlerursachen.

  • Skalierbarkeit: neue Kanäle/Sprachen hinzufügen, ohne alles neu zu bauen.

Vorgehen (Systemdesign + Governance)

1) End-to-End Prozess in klare Schritte zerlegt
Ingestion (Kanal/Video) → Download (Audio/Video) → Transkription → Artikelgenerierung → Datenanreicherung → Übersetzung → Publishing → statischer Export/Deploy.

2) Orchestrierung mit Wiederholbarkeit
Jeder Schritt hat eindeutige Ein- und Ausgänge, Status und Fehlercodes. Dadurch lassen sich Jobs sauber wiederaufnehmen, statt „von vorne“ zu starten.

3) KI dort, wo sie stabil Mehrwert bringt

  • strukturierte Artikelgenerierung (Abschnitte, Teaser, CTAs)

  • Zitate mit Zeitstempeln (nachvollziehbar)

  • konsistente Tonalität über Templates/Personas

4) Qualitätssicherung als Leitplanke

  • Qualitätsflags (z. B. „ok / needs_review / skip_reason“)

  • Plausibilitätschecks (z. B. fehlende Timecodes, zu kurze Transkripte)

  • Logging, damit man Ursachen findet (Download/Transkript/KI/Publishing)

Ergebnis / Artefakte

  • Stabile Pipeline mit klaren Zuständen und Fehlertoleranz (Retry-Strategie)

  • Strukturierte Inhalte als Grundlage für WordPress/ACF + mehrsprachige Ausspielung

  • Betriebssicht: Monitoring-Ideen, Fehlerklassen, klare Schnittstellen zwischen Services

  • Wiederverwendbare Templates für Tonalität, Struktur und CTA-Logik

Technik-Details

Stack:

  • Orchestrierung: n8n (Scheduling, Retries, Fehlerpfade)

  • Datenhaltung: PostgreSQL als zentrale Wahrheit (Queues, Status, Qualitätsflags, Fehlergründe)

  • Download: yt-dlp + ffmpeg (inkl. Fallback-Strategien je nach Streamtyp)

  • Transkription: Whisper/whisper.cpp als Service (Containerisiert)

  • KI-Generierung: OpenAI Assistants/Threads für strukturierte Artikel-JSONs

  • Übersetzung: MarianMT als separater Container (verschachtelte JSON-Strukturen)

  • Publishing: WordPress (GeneratePress/ACF) + Polylang Pro (AT/DE/EN/UK)

  • Ausspielung: statischer Export & Deploy via SSH/rsync

Strukturierter Output:

  • Artikel entstehen nicht als „Freitext“, sondern als JSON (Abschnitte, Zitate mit Timecodes, Teaser, CTA)

  • Dadurch sind Validierung und Publishing stabil (z. B. Pflichtfelder, Längen, Timecode-Format)

Betriebs-/Qualitätsmechaniken:

  • Status-Maschine pro Video/Artikel (z. B. queued → downloading → transcribing → generating → translating → publishing)

  • Qualitätsflags (ok / needs_review / skip_reason) + Wiederaufnahme an der richtigen Stelle

  • Logging pro Schritt (Download/Transkript/KI/Publish), damit Fehlerursachen sichtbar sind