Karriere bei Cloud Nation

Stellenausschreibungen für Engineers, die produktive Systeme wirklich bauen wollen.

Einordnung

Wir sind eine kleine, seniorige Boutique-Beratung und arbeiten hands on in Cloud-, Data- und AI-Projekten. Wer bei uns einsteigt, baut keine Demoumgebungen, sondern Systeme, die bei Kunden und in eigenen Produkten unter realen Bedingungen bestehen müssen.

Warum diese Rollen

Kleine Teams. Direkte Verantwortung. Delivery, die nach dem Go-live nicht zusammenfällt.

Die folgenden Rollen basieren auf unseren aktuellen Stellenausschreibungen. Wir haben sie für die Website redaktionell verdichtet, ohne den Kern zu verwässern: technische Tiefe, klare Ownership und Lust auf Systeme, die im Alltag funktionieren.

Kleine Teams, echte Verantwortung

Du arbeitest nah an Architektur, Umsetzung und Betrieb. Entscheidungen werden nicht in drei Ebenen delegiert, sondern mit den Menschen getroffen, die das System wirklich bauen.

Produktive Enterprise-Systeme

Unsere Projekte laufen in gewachsenen IT-Landschaften bei Konzernen und Mittelstand. Das heißt: echte Governance, echte Delivery-Verantwortung und Technik, die im Alltag tragen muss.

Technische Tiefe statt Foliensprache

Wir suchen Menschen, die Systeme sauber entwerfen, pragmatisch liefern und sich im Code genauso wohlfühlen wie in Architektur- und Abstimmungsgesprächen.

Offene Rollen

Vier Ausschreibungen, jeweils mit einem klaren technischen Schwerpunkt.

Jede Rolle startet mit derselben Erwartung: sauberes Engineering, klare Kommunikation und Verantwortung für produktive Ergebnisse.

Stellenausschreibung

Junior Data Engineer

Du unterstützt den Aufbau moderner Datenplattformen und lernst produktive Delivery nicht im Labor, sondern in realen Kunden- und internen Projekten kennen.

Gemeinsam mit erfahrenen Data Engineers arbeitest du an ETL- und ELT-Pipelines, Datenmodellen und den ersten Schritten in Richtung Monitoring, Datenqualität und Cloud-Betrieb. Wir suchen hier keine perfekte Historie, sondern ein sauberes technisches Fundament, Lernbereitschaft und Lust auf echte Systeme.

Vollzeit Remote in Deutschland Einstieg mit seniorigem Pairing
Auf diese Rolle bewerben

Deine Aufgaben

  • ETL- und ELT-Pipelines mitentwickeln und im Betrieb begleiten
  • Verschiedene Datenquellen in skalierbare Plattformen integrieren
  • Transformationen und Validierungen mit Python und SQL umsetzen
  • Monitoring, Fehleranalyse und Datenqualitäts-Checks verbessern

Worauf wir achten

  • Erste praktische Erfahrung in Python, SQL und Git
  • Verständnis für Datenpipelines und strukturierte Arbeitsweise
  • Grundgefühl für Cloud-Plattformen wie AWS, Azure oder GCP
  • Lernbereitschaft, Eigeninitiative und klare Kommunikation im Team
Python SQL Git AWS / Azure / GCP dbt Spark Pandas

Stellenausschreibung

Senior AI Engineer

Du baust produktive AI-Systeme, die LLMs, Datenpipelines und Backend-Services sauber zusammenbringen und im Betrieb beherrschbar bleiben.

Die Rolle verbindet Machine Learning Engineering, APIs, LLM-Integration und Plattformbetrieb. Du entwickelst AI-Services, integrierst Modelle in bestehende Landschaften und sorgst dafür, dass Qualität, Sicherheit und Skalierbarkeit nicht nur auf Folien existieren.

Senior LLMs, APIs & MLOps Deutsch C1 / Englisch C1
Auf diese Rolle bewerben

Deine Aufgaben

  • AI-Services und APIs für produktive Unternehmensanwendungen entwickeln
  • LLM- und Retrieval-Systeme in fachliche Workflows integrieren
  • Trainings- und Inferenzdaten über belastbare Pipelines bereitstellen
  • Deployment, Monitoring und Observability für AI-Systeme etablieren

Worauf wir achten

  • Sehr gute Python-Kenntnisse und produktionsreifes Software Engineering
  • Erfahrung mit Machine-Learning-Modellen oder LLM-basierten Anwendungen
  • Sicherheit in REST APIs, Microservices sowie Cloud- und CI/CD-Umgebungen
  • Saubere Architektur, Code Reviews und Bereitschaft zum Wissensaustausch
Python FastAPI LangChain / LangGraph Vector DBs MLflow AWS / Azure / GCP

Stellenausschreibung

Senior Data Engineer / Data Architect

Du führst komplexe Cloud-Datenprojekte fachlich und architektonisch und übersetzt Anforderungen in Plattformen, die skalieren, nachvollziehbar bleiben und im Alltag bestehen.

Du entwirfst Lakehouse- und Warehouse-Architekturen, baust robuste Delivery-Setups mit Python, SQL, Terraform und Docker und gibst Richtung bei Governance, Datenqualität und technischer Entscheidungsfindung. Neben der Umsetzung übernimmst du auch fachliche Führung im Projekt.

Senior / Lead Remote plus quartalsweise München AWS oder Azure
Auf diese Rolle bewerben

Deine Aufgaben

  • Skalierbare, sichere und kosteneffiziente Cloud-Datenarchitekturen designen
  • Komplexe Pipelines und Integrationen mit Python, SQL und Cloud-Services umsetzen
  • Terraform- und Docker-basierte Delivery-Standards aufbauen
  • Governance, Validierung und Stakeholder-Kommunikation fachlich führen

Worauf wir achten

  • Mehrjährige Erfahrung in Cloud Data Engineering oder Data Architecture
  • Sehr gute Kenntnisse in Python, SQL, Datenmodellierung und Lakehouse- oder Warehouse-Konzepten
  • Praxis mit Terraform, Docker und wiederholbarer Infrastruktur
  • Klare Kommunikation, Ownership und Freude daran, andere Engineers stärker zu machen
AWS / Azure Python SQL Terraform Docker Lakehouse Data Governance

Stellenausschreibung

Senior Data Engineer, TypeScript & React

Du verbindest Data Engineering mit nutzbaren Data Applications und baust Frontend, API und Datenfluss als ein zusammenhängendes System.

Die Rolle ist für Menschen, die sich nicht zwischen Plattform und Produkt entscheiden wollen. Du entwickelst React- und TypeScript-basierte Datenanwendungen, bindest APIs und Datenplattformen sauber an und sorgst gleichzeitig für Observability, Datenqualität und belastbare Delivery-Strukturen.

Senior Data Apps plus Pipelines Cloud und CI/CD
Auf diese Rolle bewerben

Deine Aufgaben

  • ETL- und ELT-Pipelines sowie integrierte Datenflüsse entwickeln
  • React- und TypeScript-basierte Data Applications für Fachbereiche bauen
  • Observability, Monitoring und automatisierte Qualitätschecks etablieren
  • Mit Backend, PM und Fachseite an Architektur und Schnittstellen arbeiten

Worauf wir achten

  • Sehr gute Kenntnisse in TypeScript, React und modernen Entwicklungspraktiken
  • Erfahrung mit REST APIs, Git und produktionsnaher Delivery
  • Sicherheit in Cloud-Plattformen, CI/CD und sauberer Strukturierung komplexer Frontends
  • Pluspunkte für Erfahrung mit dbt, Spark, Pandas oder Visualisierungslibraries
TypeScript React APIs CI/CD Cloud D3 / Recharts dbt Spark
Bewerbungsprozess

Klar, direkt und ohne künstliche Schleifen.

01

Kennenlernen

Ein erstes Gespräch zu Rolle, Motivation, Projektumfeld und der Frage, worin du wirklich stark bist.

02

Technischer Deep Dive

Wir sprechen konkret über Architektur, Delivery-Entscheidungen, Code-Nähe und darüber, wie du Systeme produktionsreif machst.

03

Projektfit & Angebot

Wenn es fachlich und menschlich passt, gleichen wir Einsatzfeld, Rahmenbedingungen und den sinnvollen Einstieg sauber ab.

Noch nicht sicher?

Wenn dein Schwerpunkt in Cloud, Data oder AI liegt, lohnt sich die Nachricht trotzdem.

Nicht jede gute Bewerbung passt exakt auf eine Ausschreibung. Wenn dein Profil zur Art von Delivery passt, die wir machen, schauen wir uns das sauber an.

Profil senden