Sie sind hier: Home > Regional > !#platzhalterstadtname!# >

!#platzhalterdienstname!#

Anzeige
Filter

Datenbankentwicklung: 19 Jobs in Johannstadt-Nord

Berufsfeld
  • Datenbankentwicklung
Branche
  • It & Internet 10
  • Gesundheit & Soziale Dienste 3
  • Elektrotechnik 2
  • Feinmechanik & Optik 2
  • Personaldienstleistungen 2
  • Recht 2
  • Unternehmensberatg. 2
  • Wirtschaftsprüfg. 2
  • Wissenschaft & Forschung 2
  • Bildung & Training 1
  • Luft- und Raumfahrt 1
Mehr anzeigen
Weniger anzeigen
Berufserfahrung
  • Mit Berufserfahrung 17
  • Ohne Berufserfahrung 13
Arbeitszeit
  • Vollzeit 19
  • Home Office möglich 11
Anstellungsart
  • Feste Anstellung 13
  • Arbeitnehmerüberlassung 2
  • Befristeter Vertrag 2
  • Berufseinstieg/Trainee 2
Datenbankentwicklung

Data Engineer (m/w/div)

Di. 26.10.2021
Dresden
OSP (Otto Group Solution Provider) ist ein IT-Dienstleister für Retail und Logistik mit Hauptsitz in Dresden. Wir leben unsere Leidenschaft für IT in einem wertschätzenden, vertrauensvollen Arbeitsumfeld. Unser Antrieb ist die Idee, gemeinsam im TeamGroßartiges für unsere Kunden zu leisten. Wir setzen dabei auf die Eigenverantwortung und Lernbereitschaft unserer Mitarbeiter*innen, auf moderne Technologien und eine hohe Qualität in der Softwareentwicklung. Agiles Arbeiten, transparenteEntscheidungen, eine lebendige Feedbackkultur und ein kollegiales Miteinander machen uns erfolgreich.Wir sind für Kunden innerhalb und außerhalb der Otto Group aktiv. Mit circa 350 Mitarbeiter*innen an mehreren deutschen und internationalenStandorten entwickeln wir seit 1991 flexible Software- und BI-Lösungen und gestalten so die Einkaufswelten von morgen. Wir sind Teil der Otto Group und teilen ein Wertesystem, das verantwortungsvolles und nachhaltiges Handeln in den Mittelpunkt stellt. Spannende und abwechslungsreiche Arbeit in einem agilen Entwicklungsteam (SCRUM/Kanban) Integration neuer Datenquellen (REST APIs, Kafka, Key-Value-Stores etc.) Entwicklung und Umsetzung von Data Integration Patterns und Self-Monitoring – Konzepten Optimierung der Continuous Integration Pipeline Test- und Deploymentautomatisierung von ETL/ ELT Jobs und Datenmodellen Abgeschlossenes Studium der Wirtschafts-/Informatik oder eines vergleichbaren Studiengangs Grundlegende Kenntnisse in SQL und in der Arbeit mit relationalen Datenbanken (Exasol, Postgres) Gute Programmierkenntnisse (insb. Java), Sicherheit im Umgang mit Versionierungssoftware (GIT) und Erfahrungen in der Implementierung von ETL-Jobs Erfahrungen in Big Data/Streaming-Technologien wie Hadoop, Hive, Kafka, Kafka Connect Idealerweise Kenntnisse im Bereich Cloud-Technologien (GCP) Eine moderne und dynamische Firma im Wachstum unter dem Dach der Otto Group Hohe und langjährige Expertise im E-Commerce vereint mit einer offenen Kultur Viel Platz für eigenverantwortliches Handeln, frische Ideen und neue Herausforderungen Ein tolles Team aus hochmotivierten und –qualifizierten Kolleginnen und Kollegen Vielfältige Weiterbildungsmöglichkeiten, flexible Arbeitszeiten und moderne Arbeitsformen wie z.B. Mobile Arbeit Eine attraktive Vergütung mit diversen Zusatzleistungen wie z. B. Personalkauf, Zuschüssen Altersvorsorge und VWL Damit überzeugen wirFlexible Arbeitszeiten, Arbeitszeiterfassung sowie Gleitzeit und Homeoffice-Möglichkeiten - du gestaltest deinen ArbeitstagAgile ArbeitsweiseMobiles ArbeitenUnbefristeter VertragMitarbeiterevents
Zum Stellenangebot

Data Science (Senior) Consultant (m/w/d)

Mo. 25.10.2021
Aalen (Württemberg), Böblingen, Holzgerlingen, München, Dresden, Fellbach (Württemberg), Frankfurt am Main, Stuttgart, Hamburg
Als ein weltweit führendes IT-Beratungs- und Serviceunternehmen mit über 180.000 Mitarbeitern weltweit sind wir seit 2002 in der DACH Region etabliert und verbinden regionale Präsenz mit globaler Stärke.   Wir begleiten führende Unternehmen in Deutschland, Österreich und der Schweiz auf ihrer Reise zum Intelligenten Unternehmen. Dabei bringen wir das volle Potenzial von Analytics, Cloud, Artificial Intelligence, Cybersecurity, Industrie 4.0, Internet of Things und neuesten Technologien wie SAP S/4HANA zu unseren Kunden.   Als Trusted Advisor stehen wir unseren Kunden in allen Projektphasen zur Seite: von der Beratung über Software-Design und -Engineering bis hin zur Umsetzung und zum Betrieb. Wir sind Partner, der Unternehmen und Organisationen sicher und zuverlässig durch Ihre digitale Transformation führt.  Du entwickelst und implementierst auf Machine Learning basierende End-to-End-Lösungen für unsere Kunden Du leitest Projekte mit Bezug zu Data Science und KI Du kommunizierst die Resultate Deiner Arbeit und ebenso die Möglichkeiten und Beschränkungen datengetriebener Methoden verständlich gegenüber Kunden auf allen Hierarchieebenen und unterschiedlich orientierten Fachbereichen Du wirkst aktiv an der fachlichen Entwicklung Deiner Teamkollegen mit und hast Freude an einem aktiven Austausch mit anderen Data Scientists, Data Engineers und anderen Data Consumers auch auf internationaler Ebene Universitärer Masterabschluss mit quantitativer Ausrichtung, gerne auch mit Forschungserfahrung, bspw. dokumentiert durch eine Promotion Mindestens vier Jahre Erfahrung in der Data Science Beratung Analytisches Denkvermögen, proaktive und unternehmerische Orientierung und starke kommunikative Fähigkeiten in den Sprachen Deutsch und Englisch Solides Methodenwissen in Statistik, Machine Learning, NLP und Infrastrukturen, das es Dir ermöglicht, neuen Entwicklungen zu folgen und innovative Lösungen zu entwickeln Exzellentes Knowhow in Python und Erfahrung darin, wartbaren und produktionsfähigen Code zu schreiben Erfahrung in der Projektleitung in agilen Arbeitsmodi Kenntnisse und Erfahrungen bezüglich Cloud- und Big Data-Technologien, sowie zu On-Premise-Lösungen Erfahrung im Software-Engineering, mit Continuous Integration, Deployment und Delivery, sowie Automatisierung und Bereitstellung mit CI/CD und Infrastructure as Code Reisebereitschaft innerhalb der gesamten D-A-CH – Region Spannende IT-Projekte am Puls neuester Technologien wie SAP S/4HANA, Cloud, Artificial Intelligence, Cloud, IoT und viele mehr  Regionale, aber auch internationale Projekteinsätze bei unseren Kunden, die unter anderem zu den Top DAX- und MDax-Unternehmen gehören  Ein globales Netzwerk mit mehr als 180.000 IT-Experten auf sechs Kontinenten  Maßgeschneiderte Aus- und Weiterbildungsmöglichkeiten  Vertrauensarbeitszeit und Mobiles Arbeiten für eine ausgewogene Work-Life-Balance  Ein attraktives Gehaltspaket inkl. betrieblicher Altersvorsorge  Regelmäßige Team- und Unternehmensevents wie bspw. die Teilnahme am „Spirit of Wipro Run“
Zum Stellenangebot

Big Data Solution Architect - Azure (m/w/d)

Mo. 25.10.2021
Aalen (Württemberg), Berlin, Dresden, Essen, Ruhr, Fellbach (Württemberg), Frankfurt am Main, Hamburg, Holzgerlingen, München, Ulm (Donau)
Als ein weltweit führendes IT-Beratungs- und Serviceunternehmen mit über 180.000 Mitarbeitern weltweit sind wir seit 2002 in der DACH Region etabliert und verbinden regionale Präsenz mit globaler Stärke.   Wir begleiten führende Unternehmen in Deutschland, Österreich und der Schweiz auf ihrer Reise zum Intelligenten Unternehmen. Dabei bringen wir das volle Potenzial von Analytics, Cloud, Artificial Intelligence, Cybersecurity, Industrie 4.0, Internet of Things und neuesten Technologien wie SAP S/4HANA zu unseren Kunden.   Als Trusted Advisor stehen wir unseren Kunden in allen Projektphasen zur Seite: von der Beratung über Software-Design und -Engineering bis hin zur Umsetzung und zum Betrieb. Wir sind Partner, der Unternehmen und Organisationen sicher und zuverlässig durch Ihre digitale Transformation führt.  Du treibst die Entwicklung einer strategischen technologischen Vision und Konzeption von Lösungen auf der Azure-Plattform durch Zusammenarbeit mit dem internen Team des Kunden voran und konzipierst, entwickelst und erstellst Lösungen Du unterstützt die Verbesserung bestehender Big-Data-Software-Stacks und trägst zur Definition der endgültigen Produktionsumgebung bei Du knüpfst und pflegst Beziehungen zu wichtigen technischen und nicht-technischen Entscheidungsträgern der Kunden, um die Einführung und langfristig erfolgreiche Nutzung der Big Data Plattform voranzutreiben, Geschäftsprobleme zu lösen und wirkungsvolle Lösungen zu entwickeln Du verstehst die Geschäftsanforderungen der Kunden und hinterfragst Annahmen und Rahmenbedingungen, um Veränderungen anzustoßen, zu identifizieren und zu validieren. So erweiterst Du kontinuierlich die Möglichkeiten, um für unsere Kunden einen greifbaren Geschäftswert zu liefern Verstehen und Erklären der Vor- und Nachteile der vorgeschlagenen Lösungen für interne und externe Stakeholder auf verschiedenen Ebenen Entwerfen von Lösungen für den kompletten Anwendungsfall, von der Datenaufnahme über die Datenmodellierung bis hin zur Datenverarbeitung und Datenausgabe, basierend auf den Diensten der Azure-Datenplattform Unterstützung bei der Einführung der technischen Dienste und Datenfunktionen der Datenplattform Definieren und Anwenden von Best Practices auf Basis von Datenplattformen Erstellung und Pflege der Design-Dokumentation Bachelor (BSc), Master (MSc) oder gleichwertige Erfahrung in einem technischen Bereich (z. B. Informatik, Ingenieurwesen...) mit tiefgreifender technischer Expertise in Daten-, BI- und KI-Technologien sowie Erfahrung mit Big Data Governance, Qualitätskonzepten und -tools 8-10 Jahre Erfahrung in einschlägigen Bereichen (Data Analytics, Big Data, IoT, Cloud), Verständnis für Markttrends, Einblicke in den Wettbewerb sowie Know-how über branchenspezifische, regulatorische bzw. Compliance-Anforderungen Erfahrung in Cloud-Migrationsszenarien (Azure), tiefgreifende Kenntnisse des Azure Produktportfolios (Data Services, Security, Apps, Container) - Zertifizierung als Azure Solutions Architekt von Vorteil -, sowie Erfahrung mit Konzepten und Werkzeugen zur Datenvirtualisierung (z. B. Tibco, denodo) Kompetenz bei der Planung und Ausführung von Big-Data-Workloads in der Produktion im großen Maßstab, Erfahrung mit Cloud-Speichern (Azure Data Lake), Datenverarbeitungssystemen (Apache Spark, Databricks, Azure Synapse) sowie Batch- und Streaming-Anwendungen (Kafka, NiFi, IoT-/Event-Hub, Stream Analytics) Erfahrung in der Entwicklung komplexer Datenpipelines, Kenntnis von Data-Engineering-Patterns (Ingestion, Transformation, Speicherung, Konsum etc.) und API-Modellierung, tiefgreifende Datenbankkenntnisse (relational, NoSQL - CosmosDB, Synapse, SQL, Data Lake, Databricks, HBase, Neo4j) sowie Erfahrung mit der Data Vault-Modellierungsmethodik, Delta-Änderungen und mit der Verwaltung von Surrogatschlüsseln Kenntnisse des Technologie-Stacks für Datenmanagement, Dateneingabe, -erfassung, -verarbeitung und -kuratierung: Kafka, StreamSets, Attunity, GoldenGate, Map Reduce, Hadoop, Hive, Hbase, Cassandra, Spark, Flume, Hive, Impala, etc. Kenntnisse in mindestens einer Programmiersprache (z. B. Python, Scala, Java), Erfahrung im Software-Engineering (Microservices, Design Patterns, Versionskontrolle, automatisiertes Testen usw.), Kenntnisse in der Containerisierung / Container-Orchestrierung (Docker & Kubernetes), Erfahrung mit der kontinuierlichen Integration, Bereitstellung und Auslieferung sowie nachgewiesene Erfahrung in der Leitung von Projektteams von Softwareentwicklern und Engineers Allgemeines Verständnis von Infrastruktur-, Orchestrierungs- und IT-Sicherheitsprinzipien (insbesondere auf Unternehmensebene), die Bereitschaft und Fähigkeit, neue Technologien und Tools zu erlernen sowie Teamfähigkeit und Offenheit für die Arbeit in einer agilen Umgebung Ausgeprägte Kommunikationsfähigkeiten in Deutsch und Englisch sowie die Fähigkeit zur ergebnisorientierten Kommunikation mit Menschen aus verschiedenen Abteilungen und mit unterschiedlichen Fähigkeiten Spannende IT-Projekte am Puls neuester Technologien wie SAP S/4HANA, Cloud, Artificial Intelligence, Cloud, IoT und viele mehr  Regionale, aber auch internationale Projekteinsätze bei unseren Kunden, die unter anderem zu den Top DAX- und MDax-Unternehmen gehören  Ein globales Netzwerk mit mehr als 180.000 IT-Experten auf sechs Kontinenten  Maßgeschneiderte Aus- und Weiterbildungsmöglichkeiten  Vertrauensarbeitszeit und Mobiles Arbeiten für eine ausgewogene Work-Life-Balance  Ein attraktives Gehaltspaket inkl. betrieblicher Altersvorsorge  Regelmäßige Team- und Unternehmensevents wie bspw. die Teilnahme am „Spirit of Wipro Run“
Zum Stellenangebot

Big Data Solution Architect - AWS (m/w/d)

Mo. 25.10.2021
Aalen (Württemberg), Berlin, Dresden, Essen, Ruhr, Fellbach (Württemberg), Frankfurt am Main, Hamburg, Holzgerlingen, München, Ulm (Donau)
Als ein weltweit führendes IT-Beratungs- und Serviceunternehmen mit über 180.000 Mitarbeitern weltweit sind wir seit 2002 in der DACH Region etabliert und verbinden regionale Präsenz mit globaler Stärke.   Wir begleiten führende Unternehmen in Deutschland, Österreich und der Schweiz auf ihrer Reise zum Intelligenten Unternehmen. Dabei bringen wir das volle Potenzial von Analytics, Cloud, Artificial Intelligence, Cybersecurity, Industrie 4.0, Internet of Things und neuesten Technologien wie SAP S/4HANA zu unseren Kunden.   Als Trusted Advisor stehen wir unseren Kunden in allen Projektphasen zur Seite: von der Beratung über Software-Design und -Engineering bis hin zur Umsetzung und zum Betrieb. Wir sind Partner, der Unternehmen und Organisationen sicher und zuverlässig durch Ihre digitale Transformation führt.  Du treibst die Entwicklung einer strategischen technologischen Vision und Konzeption von Lösungen auf der AWS-Plattform durch Zusammenarbeit mit dem internen Team des Kunden voran und konzipierst, entwickelst und erstellst solche Lösungen Du unterstützt die Verbesserung bestehender Big-Data-Software-Stacks und trägst zur Definition der endgültigen Produktionsumgebung bei Du knüpfst und pflegst Beziehungen zu wichtigen technischen und nicht-technischen Entscheidungsträgern der Kunden, um die Einführung und langfristig erfolgreiche Nutzung der Big Data Plattform voranzutreiben, Geschäftsprobleme zu lösen und wirkungsvolle Lösungen zu entwickeln Du verstehst die Geschäftsanforderungen der Kunden und hinterfragst Annahmen und Rahmenbedingungen, um Veränderungen anzustoßen, zu identifizieren und zu validieren. So erweiterst Du kontinuierlich die Möglichkeiten, um für unsere Kunden einen greifbaren Geschäftswert zu liefern Verstehen und Erklären der Vor- und Nachteile der vorgeschlagenen Lösungen für interne und externe Stakeholder auf verschiedenen Ebenen Entwerfen von Lösungen für den kompletten Anwendungsfall, von der Datenaufnahme über die Datenmodellierung bis hin zur Datenverarbeitung und Datenausgabe, basierend auf den Diensten der AWS-Datenplattform Unterstützung bei der Einführung der technischen Dienste und Datenfunktionen der AWS-Datenplattform Definieren und Anwenden von Best Practices auf Basis von Datenplattformen Erstellung und Pflege der Design-Dokumentation Bachelor (BSc), Master (MSc) oder gleichwertige Erfahrung in einem technischen Bereich (z. B. Informatik, Ingenieurwesen...) mit tiefgreifender technischer Expertise in Daten-, BI- und KI-Technologien sowie Erfahrung mit Big Data Governance, Qualitätskonzepten und -tools 8-10 Jahre Erfahrung in einschlägigen Bereichen (Data Analytics, Big Data, IoT, Cloud), Verständnis von Markttrends, Einblicke in den Wettbewerb, sowie Know-how über branchenspezifische, regulatorische bzw. Compliance-Anforderungen Erfahrung in Cloud-Migrationsszenarien (AWS), sowie tiefgreifende Kenntnisse des AWS Produktportfolios (Data Services, Security, Apps, Container) - Zertifizierung als AWS Solutions Architekt Professional von Vorteil -, sowie Erfahrung mit Konzepten und Werkzeugen zur Datenvirtualisierung (z. B. Tibco, denodo) Kompetenz bei der Planung und Ausführung von Big-Data-Workloads in der Produktion im großen Maßstab, Erfahrung mit Cloud-Speichern (Data Lake), Datenverarbeitungssystemen (Apache Spark, Databricks, Redshift), sowie Batch- und Streaming-Anwendungen (Kafka, NiFi, IoT, Glue) Erfahrung in der Entwicklung komplexer Datenpipelines, Kenntnis von Data-Engineering-Patterns (Ingestion, Transformation, Speicherung, Konsum etc.) und API-Modellierung, tiefgreifende Datenbankkenntnisse (relational, NoSQL - Redshift, Kinesis, Lake Formation, DynamoDB, Neo4j) sowie Erfahrung mit der Data Vault-Modellierungsmethodik, Delta-Änderungen und mit der Verwaltung von Surrogatschlüsseln Kenntnisse des Technologie-Stacks für Datenmanagement, Dateneingabe, -erfassung, -verarbeitung und -kuratierung: Kafka, StreamSets, Attunity, GoldenGate, Map Reduce, Hadoop, Hive, Hbase, Cassandra, Spark, Flume, Hive, Impala, etc. Kenntnisse in mindestens einer Programmiersprache (z. B. Python, Scala, Java), Erfahrung im Software-Engineering (Microservices, Design Patterns, Versionskontrolle, automatisiertes Testen usw.), Kenntnisse in der Containerisierung / Container-Orchestrierung (Docker & Kubernetes), Erfahrung mit der kontinuierlichen Integration, Bereitstellung und Auslieferung sowie nachgewiesene Erfahrung in der Leitung von Projektteams von Softwareentwicklern und Engineers Allgemeines Verständnis von Infrastruktur-, Orchestrierungs- und IT-Sicherheitsprinzipien (insbesondere auf Unternehmensebene), die Bereitschaft und Fähigkeit, neue Technologien und Tools zu erlernen sowie Teamfähigkeit und Offenheit für die Arbeit in einer agilen Umgebung Ausgeprägte Kommunikationsfähigkeiten in Deutsch und Englisch sowie die Fähigkeit zur ergebnisorientierten Kommunikation mit Menschen aus verschiedenen Abteilungen und mit unterschiedlichen Fähigkeiten Spannende IT-Projekte am Puls neuester Technologien wie SAP S/4HANA, Cloud, Artificial Intelligence, Cloud, IoT und viele mehr  Regionale, aber auch internationale Projekteinsätze bei unseren Kunden, die unter anderem zu den Top DAX- und MDax-Unternehmen gehören  Ein globales Netzwerk mit mehr als 180.000 IT-Experten auf sechs Kontinenten  Maßgeschneiderte Aus- und Weiterbildungsmöglichkeiten  Vertrauensarbeitszeit und Mobiles Arbeiten für eine ausgewogene Work-Life-Balance  Ein attraktives Gehaltspaket inkl. betrieblicher Altersvorsorge  Regelmäßige Team- und Unternehmensevents wie bspw. die Teilnahme am „Spirit of Wipro Run“
Zum Stellenangebot

Big Data Engineer (m/w/d)

Mo. 25.10.2021
Aalen (Württemberg), Berlin, Dresden, Essen, Ruhr, Fellbach (Württemberg), Frankfurt am Main, Hamburg, Holzgerlingen, München, Ulm (Donau)
Als ein weltweit führendes IT-Beratungs- und Serviceunternehmen mit über 180.000 Mitarbeitern weltweit sind wir seit 2002 in der DACH Region etabliert und verbinden regionale Präsenz mit globaler Stärke.   Wir begleiten führende Unternehmen in Deutschland, Österreich und der Schweiz auf ihrer Reise zum Intelligenten Unternehmen. Dabei bringen wir das volle Potenzial von Analytics, Cloud, Artificial Intelligence, Cybersecurity, Industrie 4.0, Internet of Things und neuesten Technologien wie SAP S/4HANA zu unseren Kunden.   Als Trusted Advisor stehen wir unseren Kunden in allen Projektphasen zur Seite: von der Beratung über Software-Design und -Engineering bis hin zur Umsetzung und zum Betrieb. Wir sind Partner, der Unternehmen und Organisationen sicher und zuverlässig durch Ihre digitale Transformation führt.  Du entwickelst neue Funktionalitäten, insbesondere für die von der Datenplattform zur Verfügung gestellten Kernfunktionen, wie: Real Time Ingestion Services Data-Governance-Lösungen Data Supermarkets (UI für Datenkonsumenten) Du konzipierst, designst und entwickelst digitale, datengetriebene Lösungen und überführst diese auch in einen stabilen Betrieb Du entwirfst komplette Use-Case-Pipelines - von der Datenaufnahme über die Datenverarbeitung bis hin zur Softwareverteilung und Feedback Loop – das Ganze auf modernen, cloudbasierten Technologien Definition und Anwendung von Best Practices im Bereich Big Data Analytics Evaluation und Auswahl potenzieller Technologien, sowie Präsentation aller Vor- und Nachteile gegenüber internen und externen Stakeholdern Du leistest Deinen Beitrag zur Verbesserung des Big-Data-Software-Stacks unserer Kunden und berätst beim Design endgültiger Produktionsumgebungen Lösen von Incidents und Change Requests (3rd Level Support) Erstellen von technischen Dokumentationen, Release Notes, Blogbeiträge in einschlägigen Foren und Austausch in Communities über Best Practices Du arbeitest eng mit internen und externen Fachbereichen, Data Scientists, Data Engineers und anderen Datenkonsumenten zusammen Weiterbildung über aktuelle Trends und Technologien im Bereich Big Data Analytics und Austausch mit Kollegen Hohe Kompetenz im Handling von Big-Data-Workloads in großen, unternehmensweiten Produktivumgebungen, DevOps mindset (you build it, you run it) und Übernahme von Verantwortung für die eigene Arbeit Nachgewiesene Stärke in der Datenmodellierung, ETL-Entwicklung und Data-Warehousing-Erfahrung mit Oracle, Redshift, PostgreSQL, etc. sowie Kenntnisse von Data-Engineering-Patterns (Ingestion, Transformation, Storage, Consumption etc.) und BigData/Realtime & Distributed Systems (Hadoop ecosystem, Kafka, NiFi, Cassandra, Spark, YARN, Zookeeper, etc.) Gute Kenntnisse von Datenbanken (relational, NoSQL – document, column, graph; ElasticSearch), Cloud-Speichern & Services (MS Azure, AWS) sowie Data Governance Frameworks (z.B. Informatica) & Data Virtualization-Technologien (z.B. Denodo) Gutes Know-how in mindestens einer der Programmiersprachen Python, C#, Java, Shell oder R, fortgeschrittene Erfahrung in Linux sowie Erfahrung in der Containerisierung / Containerorchestrierung (OpenShift, Docker, Kubernetes) Erfahrung im Software Engineering (Microservices, Design Patterns, Version Control, Automated Testing, Concurrent Programming etc.), mit Continuous Integration, Deployment, und Delivery sowie mit Automatisierung und Deployment mittels CI/CD und Infrastructure as Code (ansible, chef, puppet, Terraform) Allgemeines Verständnis von Netzwerken, Infrastruktur, Orchestrierung, verteilten Systemen und IT-Sicherheitsprinzipien (Data Access Control), die Bereitschaft und Fähigkeit, neue Technologien und Tools zu erlernen sowie Teamfähigkeit und Offenheit für die Arbeit in einer agilen Umgebung Ausgeprägte Kommunikationsfähigkeiten in Deutsch und Englisch sowie die Fähigkeit zur ergebnisorientierten Kommunikation mit Personen aus unterschiedlichen Hierarchiestufen und technischen Fähigkeiten, auch auf C-Level Spannende IT-Projekte am Puls neuester Technologien wie SAP S/4HANA, Cloud, Artificial Intelligence, Cloud, IoT und viele mehr  Regionale, aber auch internationale Projekteinsätze bei unseren Kunden, die unter anderem zu den Top DAX- und MDax-Unternehmen gehören  Ein globales Netzwerk mit mehr als 180.000 IT-Experten auf sechs Kontinenten  Maßgeschneiderte Aus- und Weiterbildungsmöglichkeiten  Vertrauensarbeitszeit und Mobiles Arbeiten für eine ausgewogene Work-Life-Balance  Ein attraktives Gehaltspaket inkl. betrieblicher Altersvorsorge  Regelmäßige Team- und Unternehmensevents wie bspw. die Teilnahme am „Spirit of Wipro Run“
Zum Stellenangebot

Data Scientist (m/w/div)

Mo. 25.10.2021
Dresden
OSP (Otto Group Solution Provider) ist ein IT-Dienstleister für Retail und Logistik mit Hauptsitz in Dresden. Wir leben unsere Leidenschaft für IT in einem wertschätzenden, vertrauensvollen Arbeitsumfeld. Unser Antrieb ist die Idee, gemeinsam im TeamGroßartiges für unsere Kunden zu leisten. Wir setzen dabei auf die Eigenverantwortung und Lernbereitschaft unserer Mitarbeiter*innen, auf moderne Technologien und eine hohe Qualität in der Softwareentwicklung. Agiles Arbeiten, transparenteEntscheidungen, eine lebendige Feedbackkultur und ein kollegiales Miteinander machen uns erfolgreich.Wir sind für Kunden innerhalb und außerhalb der Otto Group aktiv. Mit circa 350 Mitarbeiter*innen an mehreren deutschen und internationalenStandorten entwickeln wir seit 1991 flexible Software- und BI-Lösungen und gestalten so die Einkaufswelten von morgen. Wir sind Teil der Otto Group und teilen ein Wertesystem, das verantwortungsvolles und nachhaltiges Handeln in den Mittelpunkt stellt. Spannende und abwechslungsreiche Arbeit in einem agilen Entwicklungsteam  Gestaltung des gesamten Entwicklungsprozesses von Machine Learning Anwendungen, von der Abklärung der fachlichen Anforderungen bis hin zum Deployment  Aufbereitung, Analyse und Visualisierung umfangreicher und komplexer Datensätze  Entwicklung von datengetriebenen Modellen, beispielsweise mittels Machine Learning, statistischen Verfahren oder Optimierungsverfahren  Enge Kommunikation mit den Fachbereichen, die von den Modellen profitieren  Möglichkeiten, sich kontinuierlich mit neuen Technologien zu befassen  Abgeschlossenes Studium der Informatik, Mathematik, Naturwissenschaften oder eines vergleichbaren Studiengangs  Theoretisches Verständnis und praktische Erfahrungen in den Bereichen Machine Learning, statistische Datenanalyse oder Optimierungsalgorithmen  Gute Programmierkenntnisse (insb. Python), Erfahrung mit Datenmanipulations- und Machine Learning Bibliotheken sowie Sicherheit im Umgang mit Versionierungssoftware (GIT)  Branchenkenntnisse in E-Commerce und Paketlogistik oder alternativ Interesse, ein tieferes Verständnis für die fachlichen Probleme dieser Branchen aufzubauen  Idealerweise Erfahrung mit Cloud Umgebungen (GCP, AWS)  Agile Arbeitsweise30 Tage UrlaubFlexible Arbeitszeiten, Arbeitszeiterfassung sowie Gleitzeit und Homeoffice-Möglichkeiten - du gestaltest deinen ArbeitstagMobiles ArbeitenWeiterbildungUnbefristeter Vertrag
Zum Stellenangebot

(Junior) Developer Cloud Integration (w/m/d)

Sa. 23.10.2021
Dresden
Wir wollen mit Weitblick und Innovationskraft die Zukunft gestalten. Sei dabei und entfalte Dein volles Potential! Als Teil der globalen NTT DATA Gruppe, einem der erfolgreichsten IT-Dienstleister der Welt, sind wir als NTT DATA Business Solutions auf wertschöpfende SAP-Lösungen spezialisiert. Mit über 10.000 Mitarbeitenden in über 30 Ländern designen, implementieren und entwickeln wir passgenaue SAP-Lösungen für unsere weltweiten Kunden. Als Junior Developer Cloud Integration (w/m/d) im Geschäftsbereich Global Managed Services erwartet Dich global ein Team von über 1.500 Kolleginnen und Kollegen, die gemeinsam mit Dir ihre Leidenschaft für SAP leben. Möchtest Du den nächsten Karriereschritt machen und Teil unseres hochqualifizierten Teams sein? Dann unterstütze unsere Kunden als geschätzte*r Ansprechpartner*in bei der optimalen Nutzung komplexer SAP-Anwendungen! Are you ready to break new ground? Standorte: deutschlandweit Du übernimmst die eigenverantwortliche Entwicklung innerhalb eines erfahrenen Teams mit bewährten, agilen Ansätzen wie Kanban und Scrum. Du realisierst A2A-, B2B- und Cloud-Schnittstellen zwischen SAP und non-SAP Systemen in internationalen Projekten. Die Entwicklungsumsetzung mittels SAP Netweaver Process Orchestration, SAP Cloud Platform Integration und weiterer Middleware Lösungen gehört ebenfalls zu Deinen Aufgaben. Zudem begleitest Du unsere namhaften Kunden während des gesamten Entwicklungszyklus von der Architektur, Entwicklung und Test bis zum Go-Live. Du bist Vollblutentwickler*in und brennst für innovative Themen. Du verfügst über erste Erfahrungen im Umgang mit diversen Schnittstellen und Protokollen (IDOC, SOAP, REST, XML, JSON). In mindestens einer Programmier- / Transformationssprache (ABAP, Groovy, Java, JavaScript, XSLT, .NET) bist Du sicher. Du verfügst über gute Deutsch- und Englischkenntnisse in Wort und Schrift. Ein selbstständiger und lösungsorientierter Arbeitsstil sowie Kommunikationsstärke zeichnen Dich aus Teamorientierte Unternehmenskultur sowie Kommunikation auf Augenhöhe mit hohem Wissensaustausch Aktive Mitgestaltung Deiner Zukunft und eigenverantwortliches Handeln Individuell abgestimmte Einarbeitung inklusive Patenprogramm Vertrauensarbeitszeit, Mobiles Arbeiten und Home-Office Option Gezielte Karriereförderung mit unserem Karrieremodell und individuellen Entwicklungsprogrammen Internationale Entwicklungsmöglichkeiten und Netzwerke Inhouse Schulungsacademy mit einer Vielzahl an fachlichen Trainings, Softskillschulungen, SAP Learning Hub– und Zertifizierungsmöglichkeiten 25% Arbeitgeberzuschuss zur betrieblichen Altersvorsorge sowie weitere attraktive Vorsorgeangebote (z.B. Lebensarbeitszeitkonto)
Zum Stellenangebot

Trainee (m/f/o) Cloud Technologies - Start your career here

Do. 21.10.2021
Dresden, Frankfurt am Main, Halle (Saale), Hamburg, Leipzig, Magdeburg, Berlin
Making an impact that matters. Unser Anspruch ist, jeden Tag das zu tun, was wirklich zählt. Mit unserem breiten Leistungsspektrum – von Audit & Assurance, Risk Advisory über Tax & Legal bis Financial Advisory und Consulting – unterstützen wir Kunden auf einzigartige Weise. Wir setzen neue Maßstäbe, liefern innovative Denkansätze und ermöglichen nachhaltiges Wachstum. Wir fördern unsere hochqualifizierten Mitarbeitenden mit ihren verschiedensten Talenten, sodass sie mit uns mehr erreichen. You will take part in a cloud training and work experience program lasting several weeks, where you can successfully pass your first cloud hyperscaler certification exam. In the respective specialisations, you can acquire further relevant certifications, such as Scrum, agile methodologies, FinOps Practitioner, CEH, CISSP.   You have already completed your bachelor's or master's or are about to complete it? You are passionate about the latest technologies and you are especially interested in “cloud”? Apply for a career start on April 1st 2022 and become a cloud expert in one of the following fields via our “Cloud DiveIn” programme:     Cloud development: Development and roll-out of cloud solutions Cloud architecture: Design and implementation of cloud architectures Cloud administration: Management of basic configurations Cloud security: Services surrounding information security in the cloud Cloud FinOps & contract management: Services surrounding the cost-efficient use of cloud solutions Cloud FSI regulations: Audit-related consulting about audit & compliance in the context of cloud-related issues     After you have successfully completed your training, the next career step is already waiting for you!    We are looking for motivated staff to join our teams at the Berlin, Dresden, Frankfurt (Main), Halle (Saale), Hamburg, Leipzig, Magdeburg, Mannheim, Stuttgart, Walldorf, Cologne, Dusseldorf, Hanover, Munich and Nuremburg sites. You contribute the experience you gained in your studies and attain deep knowledge in the field of cloud computing You support our cloud experts with advising on and implementing cloud solutions and architectures on the basis of AWS, Azure or Google Cloud Platform You support our internal teams and clients in implementing exciting technical projects You drive the further development of our extensive services, products and solutions jointly with our cloud teams You work in a multidisciplinary team in a modern and agile working environment Very successfully completed Austrian HTL degree, Bachelor's or master's programme with focus on engineering, natural sciences or business management First hands-on experiences in the field of technical consultancy are an advantage Your goal is to comprehensively advise our clients and drive exciting projects as a qualified cloud expert You strive for further professional and personal development and you are passionate about complex topics You are fluent in German and English, written and spoken You intend to start your career at one of our aforementioned sites on April 1st 2022 You have not dealt with any cloud topics during your studies? Then we will be all the same pleased to read your enclosed letter of motivation You are interested in our Leipzig or Berlin sites specifically? In that case, willingness to travel, as it is known from traditional consultancy, is not always required! In addition to a pleasant, collegial atmosphere, we offer you a promising and international working environment. We have flat hierarchies and an open door atmosphere. Another plus point: Thanks to a large number of education programs, we take you one big step forward in your professional and personal development.
Zum Stellenangebot

Mitarbeiter*in für den Bereich Datenintegration

Do. 21.10.2021
Dresden
Jobs mit Aussicht Modern – Kompetent – Innovativ Das Nationale Centrum für Tumorerkrankungen Dresden (NCT/UCC) ist eines der führenden onkologischen Spitzenzentren in Deutschland. Die Abteilung „Translationale Medizinische Onkologie“ betreibt ein Präzisionsonkologie-Programm zur genomischen Analyse von Krebspatient*innen als Grundlage für interventionelle klinische Studien (NCT MASTER, MASTERsg). Das MASTER-Programm nutzt modernste molekulare Charakterisierungsmethoden (Ganzgenom­sequenzierung, Transkriptomsequenzierung, Methylierungsanalyse und weitere experimentelle Assays), um ein Veränderungsprofil individueller Patiententumore zu erstellen. MASTERsg (subgenomisch) hat zum Ziel gemeinsam mit der „Core Unit für Molekulare Tumordiagnostik“ am Standort die breite subgenomische Testung weiter voranzubringen. Die molekularen Profile werden im Hinblick auf gezielte Behandlungsoptionen in einem speziellen Tumorboard standort­übergreifend diskutiert und gemeinsam mit den behandelnden Ärzt*innen in die Umsetzung gebracht. Im Rahmen des „Deutschen Netzwerks Personalisierte Medizin“ (DNPM) sollen diese etablierten Prozesse nun weiterentwickelt, im Netzwerk harmonisiert und netzwerkübergreifend gesundheitsökonomisch evaluiert werden. Zum nächstmöglichen Zeitpunkt ist eine Stelle als Mitarbeiter*in für den Bereich Datenintegration im „Deutschen Netzwerk Personalisierte Medizin“ in Vollzeitbeschäftigung, befristet für zunächst 24 Monate zu besetzen. Die Vergütung erfolgt nach den Eingruppierungsvorschriften des Tarifvertrages für den öffentlichen Dienst der Länder (TV-L). Zur Erweiterung unseres Teams suchen wir eine*n hochmotivierte*n Kolleg*in mit signifikanter Erfahrung im Bereich Datenintegration. Ihre Aufgaben umfassen die Daten-, Struktur- und Systemanalyse von klinischen Quellsystemen sowie die Entwicklung von komplexen ETL-Prozessen zur Integration von verschiedenen Quellsystemen in ein Data Warehouse. Sie übernehmen Anforderungsanalysen im Bereich der Krebsforschung und gestalten daraus selbstständig Datenmodelle und -strukturen sowie Datenextraktions- und Aufbereitungsroutinen in verschiedenen Formaten (z. B. HL7 FHIR), entwickeln und implementieren Methoden und Tools zur Sicherstellung einer möglichst hohen Datenqualität. Außerdem sind Sie verantwortlich für das Anbinden von Meta Data Repositorys und Pseudonymisierungsdiensten. erfolgreich abgeschlossenes Studium der (Medizin- / Wirtschafts-) Informatik oder ähnliche Qualifikation sehr gute Kenntnisse von SQL-Datenbanken sowie ETL-Design und -Tools Erfahrung in der relationalen, dimensionalen und ggf. Data Vault Modellierung ausgeprägte analytische und konzeptionelle Fähigkeiten gute Englischkenntnisse in Wort und Schrift souveränes, fachlich kompetentes und service-orientiertes Auftreten Organisationsgeschick, schnelle Auffassungsgabe und analytisches Denkvermögen Umsetzung von eigenen Ideen und der Arbeit in einem innovativen Team Vereinbarung von flexiblen Arbeitszeiten, um die Verbindung von Familie und Beruf in die Realität umzusetzen Betreuung Ihrer Kinder durch Partnerschaften mit Kindereinrichtungen in der Nähe des Universitätsklinikums Nutzung von betrieblichen Präventionsangeboten, Kursen und Fitness in unserem Gesundheitszentrum Carus Vital Teilnahme an berufsorientierten Aus-, Fort- und Weiterbildungsmöglichkeiten in unserer Carus Akademie Vorsorge für die Zeit nach der aktiven Berufstätigkeit in Form einer betrieblichen Altersvorsorge Nutzung unseres Jobtickets für die öffentlichen Verkehrsmittel in Dresden und Umland
Zum Stellenangebot

Wissenschaftliche*r Mitarbeiter*in für Data Engineering/Data Science

Mi. 20.10.2021
Dresden
Jobs mit Aussicht Modern – Kompetent – Innovativ Die Digitalisierung in der Medizin bietet ein enormes Potenzial, die medizinische Forschung und die Patientenversorgung zu verbessern. Um dieses Potenzial mit innovativen IT-Infrastrukturen und Anwendungen zu nutzen, hat die Dresdner Hochschulmedizin ein Zentrum für Medizinische Informatik (ZMI) in Kooperation mit der Professur für Medizinische Informatik errichtet. Im Projekt „Digitaler Fortschrittshub Gesundheit: MiHUBx (Medical Informatics Hub in Saxony)“, welches vom Bundesministerium für Bildung und Forschung (BMBF) gefördert und vom ZMI koordiniert wird, soll die regionale Vernetzung der Akteure im Gesundheitswesen vorangetrieben werden. Zum nächstmöglichen Zeitpunkt ist eine Stelle als Wissenschaftliche*r Mitarbeiter*in für Data Engineering/Data Science in Vollzeitbeschäftigung, befristet für zunächst 17 Monate mit der Option auf Verlängerung zu besetzen. Die Vergütung erfolgt nach den Eingruppierungsvorschriften des Tarifvertrages für den öffentlichen Dienst der Länder (TV-L) und ist bei Vorliegen der persönlichen Voraussetzungen in die Entgeltgruppe E13 TV-L möglich.Sie erstellen und entwickeln Konzepte von intersektoralen Datenmanagement-Prozessen unter der besonderen Berücksichtigung der rechtlichen und technischen Rahmenbedingungen. Dabei erstellen Sie Anforderungsanalysen und realisieren diese nach Entwicklung als Datenservice in den Hubs. Der Einsatz von Terminologien (z. B. SNOMED) und der Einsatz sowie die Weiterentwicklung von Methoden der Phänotypisierung sind notwendig. Sie legen dabei viel Wert auf die stetige Verbesserung von Methoden und Werkzeugen zur Sicherstellung der Datenqualität. Weiterhin wirken Sie bei der Analyse von medizinischen Daten (z. B. KI, ML) mittels lokaler und förderierter Verfahren (beispielsweise mit R, Python und Datashield) mit. erfolgreich abgeschlossenes Hochschul- oder Universitätsstudium der Informatik, Epidemiologie, Medizinische Dokumentation oder eines verwandten Fachs Interesse an den Themen der Digitalisierung des Gesundheitswesens fundierte Fachkenntnisse zu medizinischer Dokumentation und Data Analytics sowie Datenbanken und ETL-Verfahren sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift eine eigenständige Arbeitsweise, Teamfähigkeit, hohes Engagement, kommunikative und interdisziplinäre Kompetenz und die Bereitschaft sich auf die verschiedenen Beteiligten und Interessensgruppen einzulassen Interesse an einer Promotion ist wünschenswert Tätigkeit in der medizinisch führenden Forschung, Lehre und Krankenversorgung verbunden mit einem hochspezialisierten Arbeitsumfeld Umsetzung von eigenen Ideen und der Arbeit in einem innovativen interdisziplinären Team Vereinbarung von flexiblen Arbeitszeiten, um die Verbindung von Familie und Beruf in die Realität umzusetzen Betreuung Ihrer Kinder durch Partnerschaften mit Kindereinrichtungen in der Nähe des Universitätsklinikums Nutzung von betrieblichen Präventionsangeboten, Kursen und Fitness in unserem Gesundheitszentrum Carus Vital Vorsorge für die Zeit nach der aktiven Berufstätigkeit in Form einer betrieblichen Altersvorsorge berufsorientierten Fort- und Weiterbildung mit individueller Planung Ihrer beruflichen Karriere
Zum Stellenangebot
12


shopping-portal

Hinweis:

Der Internet Explorer wird nicht länger von t-online unterstützt!

Um sicherer und schneller zu surfen, wechseln Sie jetzt auf einen aktuellen Browser.

Wir empfehlen unseren kostenlosen t-online-Browser: