CV - Bünyamin Goldfarb-Tunc | Medizinische Informatik & Datenintegration
Bünyamin Goldfarb-Tunc
IT-Consultant & Software-Entwickler | Datenintegration & Systemarchitektur
Fürth, Deutschland | info@notetheco.de
Profil
Erfahrener Software-Entwickler mit über 9 Jahren Berufserfahrung in der Konzeption, Entwicklung und Integration komplexer IT-Systeme. Fundierte Kenntnisse in der Datenmodellierung, ETL-Prozessentwicklung und Schnittstellenanbindung. Praktische Erfahrung mit KI/LLM-Integration und automatisierter Datenverarbeitung. Vertraut mit agilen Methoden, CI/CD-Pipelines und Container-Technologien. Ausgeprägte Kommunikationsfähigkeit und Erfahrung in der Zusammenarbeit mit internen und externen Partnern in Beratungsprojekten.
Ausbildung
- M.A. Digitaler Journalismus (Publizistik) — Datengetriebener Journalismus, Informationsverarbeitung und -aufbereitung
- B.A. Medienwissenschaften — Nebenfächer: Pädagogik, Japanologie
Zertifikate
- ISTQB Certified Tester Foundation Level — Systematisches Testen und Qualitätssicherung
- REQB FL — Requirements Engineering, Anforderungsanalyse
Technische Kenntnisse
Programmiersprachen
| Bereich | Technologien |
|---|---|
| Vertieft | TypeScript, JavaScript, Python, Java (Spring Boot), Rust |
| Grundkenntnisse | R (Grundlagen), PHP, Swift, SQL |
Datenverarbeitung & Integration
- ETL & Datenpipelines: Automatisierte XML-Parsing- und Transformations-Pipelines (ImmoXML → Markdown), Datenextraktion, -validierung und -harmonisierung, n8n-Workflows
- Datenbanken: PostgreSQL (Supabase), MySQL — Schema-Design, RPC-Schnittstellen, Row-Level-Security
- APIs & Schnittstellen: REST APIs (Java Spring Boot, Node.js/Express), Server-Sent Events, OSC-Protokoll
- Datenformate: XML, JSON, YAML, TOML, Markdown
KI, Machine Learning & Datenanalyse
- LLM-Integration: OpenAI & Anthropic API-Anbindung, Prompt Engineering, Streaming-Code-Generierung
- Anwendungsbereiche: Natural Language Processing (Code-Generierung, Musik-Pattern-Generierung), automatisierte Datenklassifikation
- Tools & Frameworks: Python (Flask), API-gestützte KI-Pipelines
Software-Entwicklung & DevOps
- Containerisierung: Docker (Containerisierung von Datenverarbeitungs-Services)
- CI/CD: Jenkins, GitHub Actions, automatisierte Build- und Deployment-Pipelines
- Versionskontrolle: Git, Bitbucket, GitHub
- Qualitätssicherung: SonarQube, NexusIQ, Jest, Jasmine/Karma, TDD
- Monitoring: Grafana, Kibana, Logflare
Methoden
- Agile Softwareentwicklung (Scrum), Clean Code, Domain-Driven Design, Pair Programming, DevOps
Relevante Projekterfahrung
CIMOVA — Automatisierte Immobiliendaten-Pipeline | 2025
Rolle: Full-Stack-Entwickler & DevOps
Konzeption und Entwicklung einer automatisierten Datenverarbeitungs-Pipeline zur Extraktion, Transformation und Integration strukturierter Daten aus externen Quellen.
Relevanz für die Stelle: ETL-Prozesse, Datenharmonisierung, Schnittstellenentwicklung, Containerisierung
Tech Stack: Rust, Docker, GitHub Actions, Hugo, TinaCMS, SFTP
Aufgaben & Ergebnisse:
- Entwicklung einer ETL-Pipeline in Rust: SFTP-Polling → XML-Parsing → Datenextraktion → Markdown-Generierung
- Automatisierte Verarbeitung standardisierter Datenformate (ImmoXML-Schema) mit Validierung und Fehlerbehandlung
- Bildextraktion und Asset-Management als Teil der Datenpipeline
- Docker-Containerisierung des gesamten Verarbeitungs-Services
- CI/CD-Pipeline mit GitHub Actions für automatisiertes Deployment
- Automatische Synchronisation verarbeiteter Daten über Git
Funding-Kombinator — Intelligentes Förder-Berechnungssystem | 2025
Rolle: Technischer Leiter & Full-Stack-Entwickler
Datengetriebenes Berechnungstool mit komplexer Domänenlogik, Datenmodellierung und regelbasierter Verarbeitung.
Relevanz für die Stelle: Datenmodellierung, Datenbanken, Domänen-Logik, Datenharmonisierung, automatisierte Aktualisierung
Tech Stack: TypeScript, React, Supabase (PostgreSQL), n8n
Aufgaben & Ergebnisse:
- Architektur und Domain-Modellierung eines modularen Berechnungssystems
- Implementierung komplexer Datenmodelle mit Validierungslogiken für heterogene Datenquellen (Bundes-/Landes-/Kommunalprogramme)
- Aufbau einer strukturierten Wissensdatenbank mit Zeit- und Regionallogik
- Automatisierte Datenaktualisierung über n8n-ETL-Workflows
- API-Endpoint-Entwicklung zur Integration als Embedded-Service
- Domain-Driven-Design-Architektur für langfristige Erweiterbarkeit
Remotion AI — KI-gestützte Code-Generierung | 2025
Rolle: Full-Stack-Entwickler & Architekt
KI-gestütztes System zur automatisierten Code-Generierung aus natürlicher Sprache mit Echtzeit-Validierung.
Relevanz für die Stelle: KI/LLM-Integration, automatisierte Datenverarbeitung, Streaming-Technologien
Tech Stack: Next.js, React, TypeScript, OpenAI/Anthropic APIs, Babel, Three.js
Aufgaben & Ergebnisse:
- Integration mehrerer LLM-APIs (OpenAI, Anthropic) mit Streaming-Verarbeitung (Server-Sent Events)
- Entwicklung einer Echtzeit-Validierungs- und Sanitization-Pipeline für generierte Daten
- In-Browser Code-Transpilation und automatisierte Qualitätsprüfung
- Natural Language Processing zur strukturierten Code-Ausgabe
soundLLM — KI-gesteuerte Musik-Generierung | 2025
Rolle: Full-Stack-Entwickler
LLM-gesteuertes System zur Echtzeit-Datenverarbeitung und Pattern-Generierung.
Relevanz für die Stelle: KI/ML-Anwendung, Python-Entwicklung, Echtzeit-Datenverarbeitung
Tech Stack: Python, Flask, Claude/OpenAI APIs, OSC-Protokoll
Aufgaben & Ergebnisse:
- Python-basierte KI-Integration mit Echtzeit-Datenverarbeitung
- Bidirektionale Kommunikation über OSC-Protokoll (vergleichbar mit Streaming-Technologien)
- Web-UI für Datenvisualisierung und State-Management
DIGID — Digitales Identitätsmanagement | 11/2023 – 03/2025
Rolle: Senior-Entwickler Webtechnologien Kunde: Bundesagentur für Arbeit
Entwicklung eines sicherheitskritischen Identity- und Access-Management-Systems (IAM) mit Anbindung an Bundessysteme.
Relevanz für die Stelle: Systemintegration, Schnittstellenentwicklung, Zusammenarbeit mit externen Partnern, Dokumentation
Tech Stack: Angular, StencilJS, Java Spring Boot, Jenkins
Aufgaben & Ergebnisse:
- Integration komplexer Schnittstellen zwischen internen und externen IT-Systemen (Familienkasse, Nutzerkonto Bund)
- RESTful API-Anbindung auf Basis von Java Spring Boot
- Digitalisierung von Kernprozessen mit strengen Compliance-Anforderungen
- CI/CD-gestützte Build- und Deployment-Prozesse
- Erstellung und Pflege technischer Dokumentationen und Entwicklerleitfäden
- Agile Zusammenarbeit im Scrum-Team mit Refinements und Reviews
OPAL Stufe 2 — Online-Plattform & Sachbearbeiter-Applikation | 04/2020 – 10/2023
Rolle: Senior-Entwickler Webtechnologien Kunde: Bundesagentur für Arbeit
Entwicklung von Online-Assistenten und einer teilautomatisierten Berechnungsanwendung.
Relevanz für die Stelle: Softwarelösungen für Fachprozesse, Datenverarbeitung, Berechnungsmodule, Monitoring
Tech Stack: Angular, StencilJS, TypeScript, Java Spring Boot, Jenkins, SonarQube, Grafana, Kibana
Aufgaben & Ergebnisse:
- Konzeption und Implementierung einer browserbasierten Sachbearbeitungsanwendung
- Integration eines modularen Berechnungstools zur automatisierten Bewertung und Datenverarbeitung
- Anbindung an Backend-Systeme zur Bereitstellung verarbeiteter Daten (Bescheide, Mitteilungen)
- Monitoring-Integration mit Grafana und Kibana
- Qualitätssicherung über SonarQube
OPAL — Online-Plattform Familienkasse | 03/2018 – 03/2020
Rolle: Senior-Entwickler Webtechnologien Kunde: Bundesagentur für Arbeit
Digitalisierung der Kindergeld-Kernprozesse mit Anbindung an bestehende Systeme.
Relevanz für die Stelle: Systemintegration, Event-Streaming, REST APIs, Datenverarbeitung
Tech Stack: Angular, TypeScript, Java Spring Boot, Apache Kafka, Jenkins, Matomo
Aufgaben & Ergebnisse:
- Digitalisierung komplexer Fachprozesse von der Antragstellung bis zur automatisierten Bearbeitung
- REST API-Entwicklung auf Basis von Java Spring Boot
- Event-Streaming und Entkopplung mittels Apache Kafka (vergleichbar mit Streaming-Technologien in ETL-Pipelines)
- Tracking und Datenanalyse mit Matomo
Bauwerkstatt Franken — Datengetriebene Plattform | seit 05/2025
Rolle: Senior-Entwickler & Architekt
Digitale Plattform mit dynamischer Datenverarbeitung, Lead-Generierung und Kalkulationstools.
Relevanz für die Stelle: Datenbankdesign, API-Schnittstellen, Datenverarbeitung
Tech Stack: React, TypeScript, Node.js/Express, Supabase (PostgreSQL), TailwindCSS
Aufgaben & Ergebnisse:
- Konzeption der gesamten Systemarchitektur mit Fokus auf Datenflüsse
- Supabase-Integration als Backend mit REST- und RPC-Schnittstellen
- Implementierung dynamischer Kalkulationstools mit datenbasierter Logik
- Deployment auf VPS mit Nginx, Let’s Encrypt, HTTP/3
Beruflicher Werdegang
| Zeitraum | Unternehmen | Position |
|---|---|---|
| 11/2021 – heute | ISO Gruppe GmbH | IT-Consultant (Fullstack-Entwickler) |
| 01/2020 – 10/2021 | Imbus AG | IT-Consultant (Fullstack-Entwickler) |
| 04/2018 – 12/2019 | .msg Systems AG | IT-Consultant (Frontend-Entwickler) |
| 03/2016 – 03/2018 | ISO Gruppe GmbH | IT-Consultant (Vorlagen-Entwickler) |
| 03/2013 – 12/2015 | EIKON Media GmbH | Medientechnik (Entwickler) |
Persönliche Daten
- Geburtsdatum: 08.03.1984
- Staatsangehörigkeit: Deutsch
- Sprachen: Deutsch (Muttersprache), Englisch (verhandlungssicher), Türkisch (Muttersprache), Französisch (Grundkenntnisse)
Motivation
Die ausgeschriebene Stelle verbindet meine langjährige Erfahrung in der Softwareentwicklung und Systemintegration mit meinem starken Interesse an datengetriebenen Anwendungen und KI-Technologien. In meinen bisherigen Projekten habe ich umfangreiche Erfahrung in der Entwicklung von ETL-Pipelines, der Integration heterogener Datenquellen und der Anbindung standardisierter Schnittstellen gesammelt. Meine Arbeit mit LLM-APIs und automatisierter Datenverarbeitung zeigt meine Bereitschaft, neue Technologien im Bereich KI und Machine Learning aktiv einzusetzen. Die Anwendung dieser Kompetenzen im klinischen Forschungsumfeld und die Arbeit mit medizinischen Standards wie HL7 FHIR und DICOM stellen für mich eine spannende fachliche Weiterentwicklung dar.
Stand: April 2026