Top-Experten-Abzeichen
Empfohlener Experte
Profil-Kopfzeilen-Hintergrund

Jorge Machado

Datenarchitekt

Jorge Machado
Profil-Kopfzeilen-Overlay
Würzburg, Deutschland

Erfahrungen

März 2025 - Bis heute
1 Jahr 1 Monat

Datenarchitekt

Deutsche Bahn

Expertise-Details
Stellenbeschreibung
Datenarchitekt bei Deutsche Bahn
Industrien
Transport und Logistik
Bereichen
Business Intelligence
Informationstechnologie (IT)
  • Entwurf und Bereitstellung von Best Practices für Data Modeling mit dbt, einschließlich sich ändernder Dimensionen, Umgang mit verspätet eingehenden Daten und Tests
  • Entwurf des Datenladeflusses von anderen Systemen nach S3 und Redshift
  • Entwurf und Implementierung neuer Partitionen für Dagster und inkrementelles Laden mit dbt
  • Abbildung fachlicher Anforderungen auf technische Architekturen
  • Anleitung von Junior-Teammitgliedern
Sept. 2024 - März 2025
7 Monate

Datenarchitekt-Experte

SAP AG

Expertise-Details
Stellenbeschreibung
Datenarchitekt-Experte bei SAP AG
Industrien
Informationstechnologie (IT)
Bereichen
Informationstechnologie (IT)
  • Leitung des Architekturdesigns und der Umsetzung des Kafka Tiered Storage Rollouts auf mehr als 30 Kubernetes-Clustern in Multi-Cloud-Umgebungen (Azure, AWS, GCP)
  • Definition und Implementierung der Infrastruktur-Provisionierung mit Crossplane für deklarative und konsistente Bereitstellung über verschiedene Cloud-Anbieter hinweg
  • Entwicklung eines maßgeschneiderten, in Golang geschriebenen Kafka Operators zur Standardisierung der Aktivierung von Tiered Storage für Datenpipelines
  • Entwurf und Automatisierung von GitOps-basierten Deployment-Strategien mit Flux und Helm für sichere und wiederholbare Rollouts
  • Optimierung der Gardener-Shoot-Konfigurationen zur Anpassung der Cluster-Ressourcen an Kafka-Arbeitslasten und Anforderungen an Kosteneffizienz
Mai 2024 - Nov. 2024
7 Monate

Datenarchitekt-Experte

s.Oliver GmbH

Expertise-Details
Stellenbeschreibung
Datenarchitekt-Experte bei s.Oliver GmbH
Industrien
Mode und Bekleidung
Einzelhandel
Bereichen
Business Intelligence
Informationstechnologie (IT)
  • Entwurf einer Medallion-Architektur auf Databricks für skalierbare, modulare Datenaufnahme, -transformation und -nutzung
  • Implementierung inkrementeller ETL-Pipelines mit PySpark zur effizienten Extraktion und Verarbeitung von SAP-Daten
  • Entwurf und Implementierung von dbt-basierten semantischen Schichten mit dimensionaler Modellierung für Fakt- und Dimensionstabellen
  • Einrichtung von Dev-to-Prod-CI/CD-Pipelines zur Standardisierung von Deployments und Durchsetzung von Governance
  • Definition von rollenbasiertem Zugriffskontroll- und Sicherheitskonzepten gemäß den Azure-Standards des Unternehmens
  • Ermöglichung der Echtzeit-Datenintegration durch Verbindung von Kafka-Streams mit Databricks für erweiterte Analysen
  • Einführung von KI/ML-Anwendungsfällen, darunter FP-Growth für Warenkorbanalysen und Zeitreihen-Forecasting-Modelle
  • Betreuung von Junior-Entwicklern in Databricks-Best Practices zur Sicherstellung einer langfristigen Plattformakzeptanz
Jan. 2023 - Aug. 2023
8 Monate

Datenarchitekt-Experte

ias Gruppe

Expertise-Details
Stellenbeschreibung
Datenarchitekt-Experte bei ias Gruppe
Industrien
Informationstechnologie (IT)
Bereichen
Business Intelligence
Informationstechnologie (IT)
  • Architektur und Implementierung einer End-to-End Azure Data Lakehouse-Lösung unter Einsatz von Azure Synapse, Delta Lake und Azure Data Lake Storage Gen2 für skalierbaren Speicher und Abfrageleistung
  • Entwurf und Implementierung von Streaming-Ingestion-Pipelines mit Azure IoT Hub, Event Hub und Service Bus zur Echtzeit-Erfassung von Telemetriedaten tausender IoT-Geräte
  • Entwicklung von Datenintegrations- und Transformationsabläufen mit Airbyte für ELT und dbt für Geschäftslogik-Modellierung, dimensionales Design und Lineage-Tracking
  • Orchestrierung komplexer Datenworkflows mit Azure Data Factory unter Einbindung von Batch- und Streaming-Prozessen
  • Implementierung von Delta Lake-basiertem Time Travel und ACID-Transaktionen für Datenzuverlässigkeit und Nachverfolgbarkeit
  • Entwurf von RBAC- und Ressourcentagging-Strategien sowie Monitoring mit Azure Monitor und Log Analytics für operative Transparenz und Sicherheit
  • Ermöglichung der Power BI-Integration für nahezu Echtzeit-Business-Dashboards und Zusammenarbeit mit Produkt- und Betriebsteams bei der Übersetzung von Anforderungen
Sept. 2022 - Mai 2024
1 Jahr 9 Monate
Frankfurt, Deutschland

Datenarchitekt-Experte

Deutsche Bahn

Expertise-Details
Stellenbeschreibung
Datenarchitekt-Experte bei Deutsche Bahn
Industrien
Transport und Logistik
Bereichen
Business Intelligence
Informationstechnologie (IT)
  • Entwurf und Implementierung von Echtzeit-Streaming-Architekturen mit AWS Kinesis, Lambda und Apache Spark für zeitkritische Analysefälle
  • Architektur und Implementierung von Delta-Ingestion-Pipelines auf AWS Glue und Apache Hudi für effiziente Kompaktierung kleiner Dateien und Time-Travel-Analysen
  • Bereitstellung unternehmenskritischer KPIs und Dashboards mit End-to-End-Datenherkunft und Auditierbarkeit über S3, PostgreSQL und CloudWatch
  • Definition und Durchsetzung von Infrastructure-as-Code-Prinzipien mit AWS CDK für skalierbare, reproduzierbare Umgebungen
  • Einführung und Rollout von dbt für semantische Modellierung und wiederverwendbare Geschäftslogik, integriert in GitLab-CI/CD-Workflows
  • Durchführung architektonischer Bewertungen von Databricks, Snowflake und AWS Athena zur Unterstützung von Entscheidungen zur zukünftigen Plattformstrategie
  • Betreuung eines Entwicklerteams, Optimierung von Entwicklungszyklen und Sicherstellung von Best Practices im Cloud Data Engineering
  • Implementierung von IoT-4.0-Pipelines zur Erfassung von Telemetriedaten und Unterstützung von Predictive-Analytics-Initiativen
Sept. 2021 - Sept. 2022
1 Jahr 1 Monat
Rottendorf, Deutschland

Kafka-Experte

S.Oliver GmbH

Expertise-Details
Stellenbeschreibung
Kafka-Experte bei S.Oliver GmbH
Industrien
Mode und Bekleidung
Einzelhandel
Bereichen
Informationstechnologie (IT)
  • Entwickelte Spring-Boot-Kafka-Streams-Anwendungen
  • Erstellte individuelle Kafka-Source-Connectoren für SAP-Systeme und individuelle Sink-Connectoren zum Zurückschreiben in SAP
  • Setzte Kafka-Connect-Connectoren mit Überwachung auf dem Azure Kubernetes Service ein
  • Entwickelte Datenpipelines mit Airflow und Azure Cloud
  • Entwarf Datenpipelines zwischen On-Premise und Azure Cloud
  • Schrieb Spark-Jobs zum Säubern und Aggregieren von Daten
Feb. 2021 - Aug. 2022
1 Jahr 7 Monate
Deutschland

Softwareentwickler

RTL Deutschland

Expertise-Details
Stellenbeschreibung
Softwareentwickler bei RTL Deutschland
Industrien
Medien, Unterhaltung und Druck
Bereichen
Business Intelligence
Informationstechnologie (IT)
  • Entwarf und implementierte eine Lakehouse-Architektur mit Azure Databricks, Delta Lake und Azure Synapse für Batch- und Echtzeit-Workloads mit ACID-Konformität
  • Erstellte RESTful Data-APIs mit FastAPI und stellte sie über Azure App Services als kontrollierte Zugangsschicht bereit
  • Entwickelte inkrementelle ETL-Pipelines mit PySpark und dbt und implementierte Star-Schema-Modelle für semantische Konsistenz und historische Nachverfolgung
  • Ermöglichte interaktive Berichte und visuelle Analysen mit in Azure integriertem Power BI
  • Implementierte strenge Datenzugriffskontrollen, Audit-Protokollierung und Ressourcenüberwachung für DSGVO-Konformität und Governance
  • Etablierte automatisierte CI/CD-Pipelines für die Dateninfrastruktur mit Azure-nativen Tools
Sept. 2020 - Juni 2021
10 Monate
München, Deutschland

Cloud-Lösungsarchitekt

Allianz Technology

Expertise-Details
Stellenbeschreibung
Cloud-Lösungsarchitekt bei Allianz Technology
Industrien
Versicherung
Informationstechnologie (IT)
Bereichen
Informationstechnologie (IT)
  • Migrierte Data Lakes in die Azure Cloud mit hoher Automatisierung unter Einsatz von ArgoCD, Jenkins, Helm-Charts und Terraform
  • Entwickelte Spark-Jobs für die Data-Lake-Migration
  • Erstellte Helm-Charts für die Azure AKS-Automatisierung
  • Refaktorierte Anwendungsdesigns zu Cloud-Native und integrierte interne Kunden in Azure
  • Implementierte Spring-Boot-Kafka-Streams-Anwendungen und Argo-Workflow-Pipelines
März 2020 - Mai 2020
3 Monate
München, Deutschland

Big Data-Architekt, Datenarchitekt

BMW AG

Expertise-Details
Stellenbeschreibung
Big Data-Architekt, Datenarchitekt bei BMW AG
Industrien
Automotive
Bereichen
Informationstechnologie (IT)
Produktentwicklung
  • Entwickelte Datenpipelines mit Spark und Airflow für Daten autonomer Fahrzeuge
  • Erstellte Metriken für geospatiale Anwendungen
  • Überführte Daten mit Apache Spark in Elasticsearch
  • Wandte Prinzipien der funktionalen Programmierung mit Scala an
Jan. 2020 - Mai 2020
5 Monate
Stuttgart, Deutschland

Big Data-Entwickler

DXC

Expertise-Details
Stellenbeschreibung
Big Data-Entwickler bei DXC
Industrien
Informationstechnologie (IT)
Bereichen
Informationstechnologie (IT)
  • Automatisierte Bereitstellungen von Azure Kubernetes-Clustern
  • Erstellte und setzte Deep-Learning-Spark-Jobs mit PyTorch und GPUs auf Kubernetes ein
  • Führte GPU-Inferenz auf Terabyte-Daten durch
Sept. 2017 - Juni 2018
10 Monate
Nürnberg, Deutschland

Big Data Entwickler, Spark/Kafka Entwickler, Datenarchitekt

GfK

Expertise-Details
Stellenbeschreibung
Big Data Entwickler, Spark/Kafka Entwickler, Datenarchitekt bei GfK
Industrien
Professionelle Dienstleistungen
Bereichen
Business Intelligence
Informationstechnologie (IT)
  • Entwickelte Kafka-Connectoren, um Daten in Accumulo in einer kerberisierten Umgebung
  • Kerberisierte Anwendungen für Hadoop, Kafka und Kafka Connect
  • Erstellte Statistikpläne für RDF4J-Abfragen auf Accumulo
  • Entwickelte Apache NiFi Workflows
  • Führte Git-Flow, CI/CD und Docker-Automatisierung ein
  • Setzte Kafka Connect mit Kerberos auf Google Kubernetes auf
  • Schrieb Java-Anwendungen basierend auf RDF und Web-Semantik
Apr. 2017 - Sept. 2017
6 Monate
Frankfurt, Deutschland

Big Data Architekt

Deutsche Bahn

Expertise-Details
Stellenbeschreibung
Big Data Architekt bei Deutsche Bahn
Industrien
Transport und Logistik
Bereichen
Informationstechnologie (IT)
  • Dimensionierte und konfigurierte Hadoop-Cluster mit Kerberos und Active Directory
  • Migrierte Daten mit Sqoop und verwaltete Workflows mit Oozie
  • Implementierte Datenpipelines mit Kylo, Apache NiFi und Talend
  • Setzte Hortonworks Cloud Break auf AWS ein und stellte Apache Storm Streaming-Anwendungen bereit
  • Unterstützte interne Kunden bei Streaming- und Datenbereinigungsprozessen
Okt. 2016 - März 2017
6 Monate
Dresden, Deutschland

Big Data Entwickler und Architekt

Kiwigrid

Expertise-Details
Stellenbeschreibung
Big Data Entwickler und Architekt bei Kiwigrid
Industrien
Energie
Bereichen
Informationstechnologie (IT)
Produktentwicklung
  • Erstellte Spark-Jobs für historische Datenberichte
  • Entwickelte benutzerdefinierte Spark-Datenquellen für HBase und Aggregationen zur Datenerkundung
  • Konzipierte ein Alarmierungs- und Rechenframework basierend auf Spark Streaming
  • Setzte Anwendungen mit Docker ein

Branchenerfahrung

Sehen Sie, in welchen Branchen dieser Freiberufler den Großteil seiner beruflichen Laufbahn verbracht hat.

Erfahren in Transport und Logistik, Informationstechnologie (IT), Mode und Bekleidung, Einzelhandel, Medien, Unterhaltung und Druck und Versicherung.

Transport und Logistik
Informationstechnologie (IT)
Mode und Bekleidung
Einzelhandel
Medien, Unterhaltung und Druck
Versicherung
Profil-Übereinstimmungsdiagramm

Erfahrung nach Fachbereich

Zeigt, in welchen Abteilungen und Funktionen dieser Freelancer am meisten mitgewirkt hat.

Erfahren in Informationstechnologie (IT), Business Intelligence und Produktentwicklung.

Informationstechnologie (IT)
Business Intelligence
Produktentwicklung
Profil-Übereinstimmungsdiagramm

Fähigkeiten

Allgemeine Fähigkeiten:

  • Apache Spark
  • Java Mapreduce
  • Scala
  • Java
  • Python
  • Perl
  • Tornado
  • Rest-apis
  • Jira
  • Etl
  • Docker
  • Maven
  • Gradle
  • Kubernetes
  • Jenkins
  • Cloud Build
  • Azure Cosmos Db
  • S3
  • Neo4j
  • Azure Kubernetes Service
  • Aks
  • Flask
  • Spring Boot
  • Data Vault 2.0
  • Pytorch
  • Tensorflow
  • Azure Iot
  • Modbus
  • Mqtt
  • Opc
  • Sps
  • Azure Data Factory
  • Azure Synapse
  • Llm

Betriebssystem-kenntnisse:

  • Aix
  • Ubuntu
  • Centos
  • Macos
  • Windows Server 2008 R2
  • Flexframe
  • Routing
  • Git
  • Ibm Hadr
  • Ibm Tsm
  • Aws S3
  • Apache Mesos

Sap-kenntnisse:

  • Rfc
  • Snc
  • Charm
  • Kernel-upgrades
  • Ehp-upgrade
  • Ssfs
  • Sso
  • Hana

Datenbanken:

  • Oracle 11
  • Db2
  • Sap Maxdb
  • Mysql
  • Aws Redshift
  • Postgresql

Cloud-technologien:

  • Aws Emr
  • Aws Glue
  • Aws Ecs
  • Aws S3
  • Google App Engine
  • Azure Kubernetes
  • Azure-container

Sprachen

Deutsch
Verhandlungssicher
Englisch
Verhandlungssicher

Zertifikate & Bescheinigungen

Databricks Lakehouse Platform Akkreditierung

Confluent-zertifizierter Entwickler für Apache Kafka

Generative KI mit großen Sprachmodellen (LLM)

CKAD: Zertifizierter Kubernetes-Anwendungsentwickler

Microsoft-zertifiziert: Azure-Grundlagen

Data Engineering Nanodegree

Grundlagen der funktionalen Programmierung in Scala auf Coursera

Big Data Analytics Fraunhofer IAIS

Big Data Analytics der University of California, San Diego auf Coursera

Databricks-Entwicklerschulung für Apache Spark

Hadoop-Plattform und Anwendungsframework der University of California auf Coursera

Maschinelles Lernen mit Big Data der University of California, San Diego auf Coursera

SAP OS- und DB-Migration (TADM70)

SAP Datenbankadministration I (Oracle) (ADM 505)

SAP Datenbankadministration II (Oracle) (ADM 506)

SAP NetWeaver AS Implementierung und Betrieb I (SAP TADM10)

SAP NetWeaver Portal - Implementierung und Betrieb (TEP10)

ITL Foundation V4

Statistiken

Erfahrung

Positionen gesamt 13
Erfahrung in Transport und Logistik 3 J.
Durchschn. Dauer 9 M.
Längste Erfahrung 1 J. 8 M.

Globale Erfahrung

Länder gearbeitet 1 (Deutschland)
Hauptland Deutschland

Fachkenntnisse

Aktuelle Rollen Datenarchitekt, Datenarchitekt-Experte, Kafka-Experte
Hauptbranchen Transport und Logistik, Informationstechnologie (IT), Mode und Bekleidung
Hauptfachbereiche Informationstechnologie (IT), Business Intelligence, Produktentwicklung

Qualifikationen

Zertifikate erworben 18

Profil

Erstellt
Sie suchen Freelancer?Passende Kandidaten in Sekunden!
FRATCH GPT testen
Weitere Aktionen

Frequently Asked Questions

Sie haben Fragen? Hier finden Sie weitere Informationen

Wo ist Jorge ansässig?

Jorge ist in Würzburg, Deutschland ansässig.

Welche Sprachen spricht Jorge?

Jorge spricht folgende Sprachen: German (Verhandlungssicher), English (Verhandlungssicher).

Wie viele Jahre Erfahrung hat Jorge?

Jorge hat mindestens 8 Jahre Erfahrung. In dieser Zeit hat Jorge in mindestens 10 verschiedenen Rollen und für 11 verschiedene Firmen gearbeitet. Die durchschnittliche Dauer der einzelnen Projekte beträgt 1 Jahr und 7 Monate. Beachten Sie, dass Jorge möglicherweise nicht alle Erfahrungen geteilt hat und tatsächlich mehr Erfahrung hat.

Für welche Rollen wäre Jorge am besten geeignet?

Basierend auf der jüngsten Erfahrung wäre Jorge gut geeignet für Rollen wie: Datenarchitekt, Datenarchitekt-Experte, Kafka-Experte.

Was ist das neueste Projekt von Jorge?

Die neueste Position von Jorge ist Datenarchitekt bei Deutsche Bahn.

Für welche Unternehmen hat Jorge in den letzten Jahren gearbeitet?

In den letzten Jahren hat Jorge für Deutsche Bahn, SAP AG, s.Oliver GmbH, ias Gruppe und S.Oliver GmbH gearbeitet.

In welchen Industrien hat Jorge die meiste Erfahrung?

Jorge hat die meiste Erfahrung in Industrien wie Transport und Logistik, Informationstechnologie (IT) und Mode und Bekleidung. Jorge hat auch etwas Erfahrung in Einzelhandel, Medien, Unterhaltung und Druck und Versicherung.

In welchen Bereichen hat Jorge die meiste Erfahrung?

Jorge hat die meiste Erfahrung in Bereichen wie Informationstechnologie (IT), Business Intelligence und Produktentwicklung.

In welchen Industrien hat Jorge kürzlich gearbeitet?

Jorge hat kürzlich in Industrien wie Transport und Logistik, Informationstechnologie (IT) und Mode und Bekleidung gearbeitet.

In welchen Bereichen hat Jorge kürzlich gearbeitet?

Jorge hat kürzlich in Bereichen wie Informationstechnologie (IT) und Business Intelligence gearbeitet.

Ist Jorge zertifiziert?

Jorge hat 18 Zertifikate. Darunter sind: Databricks Lakehouse Platform Akkreditierung, Confluent-zertifizierter Entwickler für Apache Kafka und Generative KI mit großen Sprachmodellen (LLM).

Wie ist die Verfügbarkeit von Jorge?

Jorge ist sofort verfügbar für passende Projekte.

Wie hoch ist der Stundensatz von Jorge?

Der Stundensatz von Jorge hängt von den spezifischen Projektanforderungen ab. Bitte verwenden Sie die Meet-Schaltfläche im Profil, um ein Meeting zu planen und die Details zu besprechen.

Wie kann man Jorge beauftragen?

Um Jorge zu beauftragen, klicken Sie auf die Meet-Schaltfläche im Profil, um ein Meeting anzufragen und Ihre Projektanforderungen zu besprechen.

Durchschnittlicher Tagessatz für ähnliche Positionen

Die Tagessätze basieren auf aktuellen Projekten und enthalten keine FRATCH-Marge.

1200
900
600
300
Stundensatzvergleich-Diagramm
⌀ Markt: 900-1060 €
Die angegebenen Tagessätze entsprechen der typischen Marktspanne für Freiberufler in dieser Position, basierend auf aktuellen Projekten auf unserer Plattform.
Die tatsächlichen Tagessätze können je nach Dienstalter, Erfahrung, Fachkenntnissen, Projektkomplexität und Auftragsdauer variieren.