Sie sind hier: Home > Regional > !#platzhalterstadtname!# >

!#platzhalterdienstname!#

Anzeige
Filter

Data Warehouse: 12 Jobs in Cotta

Berufsfeld
  • Data Warehouse
Branche
  • It & Internet 7
  • Elektrotechnik 1
  • Feinmechanik & Optik 1
  • Funk 1
  • Medien (Film 1
  • Personaldienstleistungen 1
  • Sonstige Branchen 1
  • Sonstige Dienstleistungen 1
  • Tv 1
  • Telekommunikation 1
  • Verlage) 1
Mehr anzeigen
Weniger anzeigen
Berufserfahrung
  • Mit Berufserfahrung 12
  • Ohne Berufserfahrung 11
Arbeitszeit
  • Vollzeit 12
  • Home Office 9
Anstellungsart
  • Feste Anstellung 11
  • Arbeitnehmerüberlassung 1
Data Warehouse

IT-Spezialist (m/w/d) Datenbanken

Mo. 01.03.2021
Radebeul, Leipzig
Seit 30 Jahren überzeugen wir mit professionellen Softwarelösungen und Dienstleistungen zur Abrechnungsprüfung vorrangig im Bereich von Apotheken. Dabei bilden rund 145 Mit­ar­bei­ter an Standorten in Sachsen und Bayern die Basis unseres Erfolgs. Ein Netz aus Fach­wissen sowie technischer Expertise, kombiniert mit modernster, kundenorientierter Software und dem persön­li­chen Kontakt zu unseren Kunden macht die GFS zu dem, was sie heute ist: Ein zuverlässiger und renommierter Partner für Krankenkassen. Werden auch Sie Teil unseres Teams und gestalten Sie die Zukunft der GFS aktiv mit! Für den Standort Radebeul oder für unsere Außenstelle in Leipzig suchen wir zum nächst­mögli­chen Zeitpunkt unbefristet einen IT-Spezialisten (m/w/d) Datenbanken. Entwurf, Implementierung und Pflege unserer Datenbanklandschaft sowie unserer Online-Reports Erstellung von regelmäßigen Auswertungen sowie von Ad-hoc-Auswertungen Bedienung von Kundenschnittstellen Performance-Optimierung und Stabilitätssicherung unserer produktiven Daten­bank­prozesse Verfassen von Dokumentationen, Pflege des GIT-Repository Abteilungsübergreifende Projektarbeit Abgeschlossene Ausbildung im IT-Umfeld – z. B. zum Fachinformatiker für Anwendungs­entwicklung (m/w/d) o. Ä. – oder Hochschulabschluss im Bereich der (Wirtschafts-) Informatik, Mathematik, Statistik, Ingenieurwissenschaften Fundierte Kenntnisse in SQL sowie relationalen Datenbanken Idealerweise mehrjährige Erfahrung im Umgang mit MS SQL-Produkten bis Version 2019 (TSQL, SSRS, SSIS, SSAS) und MS Visual Studio Bereitschaft, sich selbstständig in neue Fachgebiete des Gesundheitswesens einzu­arbeiten Hohen Anspruch an die eigene Arbeitsqualität und Zuverlässigkeit Ausgeprägte analytische Fähigkeiten Hohe Teamfähigkeit Sehr gute Deutschkenntnisse in Wort und Schrift Vereinbarkeit von Beruf- und Privatleben (flexible Arbeitszeiten und Homeoffice-Möglichkeit) Individuelle Weiterbildungsmöglichkeiten Attraktive Bezuschussung zur betrieblichen Altersvorsorge Vergünstigte Monatsfahrkarte am Standort Radebeul (Jobticket) Fahrradleasing (JobRad) Firmeneigenes Fitnessstudio am Standort Radebeul Kostenfreie Getränke (Wasser, Kaffee, Tee) Regelmäßigen Obst- und Gemüsekorb Firmen-Events (Firmenfeiern, Gesundheitstage, sportliche Veranstaltungen)
Zum Stellenangebot

Entwickler Business Intelligence (m/w/d)

So. 28.02.2021
Dresden
Die DDV Mediengruppe, eines der großen regionalen Medienunternehmen, ist Herausgeber der Sächsischen Zeitung, der Morgenpost Sachsen sowie der bekannten Internetportale sächsische.de und tag24.de. Innerhalb der Unternehmensgruppe hat sich die DDV Sachsen GmbH insbesondere in den Bereichen Anzeigen, Vertrieb und Marketing profiliert. Wir suchen zur Verstärkung unseres Teams ab sofort einen Entwickler Business Intelligence (m/w/d) - Unbefristet // Vollzeit oder Teilzeit // Standort Dresden Mitgestaltung der Digitalen Transformation in der DDV Mediengruppe mittels datengetriebener Architekturen Konzeption, Implementierung und Pflege von Data Warehouse/Business Intelligence-Lösungen Redesign, Modellierung und Unterstützung von Geschäftsprozessen Komplexe Datenanalysen Projektkoordination Abschluss eines (Wirtschafts-) Informatik-Studiums oder eines Studiengangs mit ähnlichem Schwerpunkt Projekterfahrung im BI-Umfeld und in der Arbeit mit BI-Tools (idealerweise Microsoft BI Technologien SQL Server Integration Services & Analysis Services, Power BI) sicherer Umgang mit Analysetools und SQL als Abfragesprache Freude und Interesse am Umgang mit neuen Technologien selbstständige, strukturierte und engagierte Arbeitsweise kommunikationsstarker Teamplayer sehr gute Deutsch- und Englischkenntnisse abwechslungsreiche und herausfordernde Arbeit in einem kleinen, hochmotivierten Team mit kollegialer Arbeitsatmosphäre kontinuierliche Schulungs- und Weiterentwicklungsmöglichkeiten flexible Gestaltung der Arbeitszeiten und Home-Office-Möglichkeit offene Kultur mit kurzen Entscheidungswegen die Vorteile eines der größten Arbeitgeber der Region und oben drauf: ein super Ausblick vom Arbeitsplatz auf das Herz Dresdens Bewerbungen von Schwerbehinderten sind ausdrücklich erwünscht.
Zum Stellenangebot

Data Scientist (gn*) Prozessentwicklung

So. 28.02.2021
Burghausen, Salzach, Freiberg, Sachsen
Data Scientist (gn*) Prozessentwicklung Siltronic ist einer der welt­weit größten Her­steller für Wafer aus Reinst­silizium und Partner vieler füh­render Chip-Her­steller mit rund 3.600 Mitar­beitern und Pro­duk­tions­stätten in Europa, Asien und den USA. Wir entwickeln und fertigen Wafer mit einem Durch­messer von bis zu 300 mm. Diese sind die Grund­lage der modernen Mikro- und Nano­elektronik. *geschlechtsneutral Datengetriebene Weiterentwicklung und Opti­mie­rung bestehender und neuer Produk­tions­prozesse Automatisierte Datenerfassung, Analyse und Visuali­sierung von Ergebnissen Erstellung und Implementierung modell­basierter Algorithmen zur auto­matischen Prozess­steuerung (Advanced Process Control) Vorhersage von Qualitätsdaten (Virtual Metrology) Automatisierte Prozessüberwachung (Fault Detection and Classification, Fault Prediction) Abgeschlossenes Hochschulstudium einer natur­wissen­schaft­lichen Fachrichtung, Mathe­matik oder Informatik Erfahrung im Bereich Data Science, Statistik, Machine Learning und Muster­erkennung Kenntnisse in Python, RapidMiner und SQL wünschenswert Sehr gute Englischkenntnisse in Wort und Schrift Team- und Kommunikationsfähigkeit sowie eine ziel­gerichtete und selbst­ständige Arbeitsweise Hohes Engagement und Einsatzbereitschaft
Zum Stellenangebot

Devops Engineer E-Commerce (m/w/d)

So. 28.02.2021
Dresden, Jena, Leipzig
DEVOPS, SOFTWARE ENGINEERING, E-COMMERCE, DOCKER WIR GESTALTEN DIE DIGITALISIERUNG FÜR EINE BESSERE WELT Als Digitaldienstleister für den Mittelstand und Konzerne realisiert die T-Systems Multimedia Solutions GmbH jährlich rund 3000 Projekte verschiedenster Größe und Komplexität in den unterschiedlichsten Branchen. Gemeinsam mit unseren Kunden gestalten wir die digitale Welt sicher, nutzerorientiert und für alle zugänglich. Dabei verfolgen wir das Ziel einer verantwortungsvollen und nachhaltigen Digitalisierung. IN ALLER KÜRZE Standorte: Dresden, Jena, Leipzig Wochenarbeitszeit: Vollzeit 38h/ Woche Reiseanteil: gering Sprachkenntnisse: Deutsch und Englisch Du planst und konzipierst eCommerce Umgebungen im DevOps Team Du entwickelst eCommerce Umgebungen in der Cloud Innerhalb des DevOps Teams stimmt du dich über Kundenanforderungen ab und setzt diese um Du analysierst und behebst Störungen und beteiligst dich an der Automatisierung wiederkehrender Arbeitsschritte Die Identifikation von Verbesserungspotentialen runden dein Aufgabengebiet ab Du bist ein aufgeweckter Teamplayer mit Macherqualitäten, der ausgeprägte analytische Fähigkeiten mitbringt Du scheust dich nicht Verantwortung zu übernehmen und bist bereit Entscheidungen im Team zu treffen Du bist stark im Software Engineering und betrachtest das System ganzheitlich Erfahrung in der Entwicklung von JEE Anwendungen, Web Anwendung, Datenbanken EIN PLUS, KEIN MUSS Du hast Erfahrung mit OpenSource Technologien, Cloud Technologien (AWS, OTC, Azure) oder DevOps Tools (z.B. Docker, Chef, Puppet, Jenkins, Ansible, Kubernetes) Erfahrung in der Arbeit in SCRUM Teams Erfahrung in der standortübergreifenden Zusammenarbeit und in der richtigen Anwendung der Kommunikationsmittel (Skype, WebEx, JIRA, Confluence) Welcome Day - Ankommen und Netzwerken Vertrauensarbeitszeit - flexible Arbeitszeit mit Überstundenausgleich Mobile Working - ortsungebundenes Arbeiten (z.B. im Homeoffice) möglich Top Equipment - moderne Arbeitsmittel, wie du sie brauchst Weiterentwicklung - über 100 Weiterbildungen und Schulungen im Angebot Betriebliche Altersvorsorge - wir legen was für dich zur Seite Mitarbeitervorteile - Rabatte bei zahlreichen Anbietern und Partnern
Zum Stellenangebot

BI Professional (m/w/div)

So. 28.02.2021
Dresden
Otto Group Solution Provider (OSP) ist als IT-Spezialist für Retail und Logistik für Kunden innerhalb und außerhalb der Otto Group aktiv. Mit über 250 Mitarbeitern an mehreren deutschen und internationalen Standorten entwickelt OSP seit 1991 flexible Software- und BI-Lösungen. Neben dem Omnichannel-System MOVEX bietet OSP umfangreiche IT-Services wie Software-Entwicklung und -Architektur, Business Intelligence und Consulting für den E- und M-Commerce.Alle Mitarbeiterinnen und Mitarbeiter in jeder der 123 Einzelgesellschaften der OTTO GROUP tragen täglich mit innovativen Ideen dazu bei, uns unserem gemeinsamen Ziel näher zu bringen:In allen Bereichen best in class zu werden.Otto Group Solution Provider (OSP) ist als IT-Spezialist für Retail und Logistik für Kunden innerhalb und außerhalb der Otto Group aktiv. Mit rund 300 Mitarbeitern an mehreren deutschen und internationalen Standorten entwickelt OSP seit 1991 flexible Software- und BI-Lösungen. Neben dem Omnichannel-System MOVEX bietet OSP umfangreiche IT-Services wie Software-Entwicklung und -Architektur, Business Intelligence und Consulting für den E- und M-Commerce. Spannende und abwechslungsreiche Arbeit in agilen Entwicklungsteams (SCRUM/Kanban) Übersetzung der fachlichen Anforderungen in Datenmodelle (Data Vault, Multidimensional) Nutzung von ETL/ ELT Pattern zur Implementierung von Datenverarbeitungsprozessen Design und Implementierung von Reports Entwicklung von tragfähigen und nachhaltigen Konzepten für BI Projekte und BI Plattformen Kennenlernen von Handels-, Marketing- und Logistikprozessen der Otto Group Abgeschlossenes Studium Wirtschafts-/Informatik oder eines vergleichbaren Studiengangs Erfahrungen in der Konzeption von DWH/BI-Plattformen Sehr gute Kenntnisse in SQL, der Arbeit mit relationalen Datenbanken (Exasol, Postgres) und der Datenmodellierung (insb. Data Vault) Kenntnisse im Umgang mit Reporting Tools (z.B. Tableau, Superset, PowerBI) von Vorteil Grundlegende Programmierkenntnisse (insb. Java, Python, Lua) und erste Erfahrungen in Big Data-Technologien wie Hadoop, Hive Idealerweise Kenntnisse im Bereich Cloud-Technologien (GCP) Eine moderne und dynamische Firma im Wachstum unter dem Dach der Otto Group Hohe und langjährige Expertise im E-Commerce vereint mit einer offenen Kultur Viel Platz für eigenverantwortliches Handeln, frische Ideen und neue Herausforderungen Ein tolles Team aus hochmotivierten und –qualifizierten Kolleginnen und Kollegen Vielfältige Weiterbildungsmöglichkeiten , flexible Arbeitszeiten und moderne Arbeitsformen wie z.B. Homeoffice Eine attraktive Vergütung mit diversen Zusatzleistungen wie z. B. Personalkauf, Zuschüssen Altersvorsorge und VWL Damit überzeugen wirFlexible ArbeitszeitenAgile ArbeitsweiseUnbefristeter VertragMobiles ArbeitenMitarbeiterevents
Zum Stellenangebot

Data Engineer (m/w/div)

Sa. 27.02.2021
Dresden
Otto Group Solution Provider (OSP) ist als IT-Spezialist für Retail und Logistik für Kunden innerhalb und außerhalb der Otto Group aktiv. Mit über 250 Mitarbeitern an mehreren deutschen und internationalen Standorten entwickelt OSP seit 1991 flexible Software- und BI-Lösungen. Neben dem Omnichannel-System MOVEX bietet OSP umfangreiche IT-Services wie Software-Entwicklung und -Architektur, Business Intelligence und Consulting für den E- und M-Commerce.Alle Mitarbeiterinnen und Mitarbeiter in jeder der 123 Einzelgesellschaften der OTTO GROUP tragen täglich mit innovativen Ideen dazu bei, uns unserem gemeinsamen Ziel näher zu bringen:In allen Bereichen best in class zu werden. Spannende und abwechslungsreiche Arbeit in einem agilen Entwicklungsteam (SCRUM/Kanban) Integration neuer Datenquellen (REST APIs, Kafka, Key-Value-Stores etc.) Entwicklung und Umsetzung von Data Integration Patterns und Self-Monitoring – Konzepten Optimierung der Continuous Integration Pipeline Test- und Deploymentautomatisierung von ETL/ ELT Jobs und Datenmodellen Abgeschlossenes Studium der Wirtschafts-/Informatik oder eines vergleichbaren Studiengangs Grundlegende Kenntnisse in SQL und in der Arbeit mit relationalen Datenbanken (Exasol, Postgres) Gute Programmierkenntnisse (insb. Java), Sicherheit im Umgang mit Versionierungssoftware (GIT) und Erfahrungen in der Implementierung von ETL-Jobs Erfahrungen in Big Data/Streaming-Technologien wie Hadoop, Hive, Kafka, Kafka Connect Idealerweise Kenntnisse im Bereich Cloud-Technologien (GCP) Eine moderne und dynamische Firma im Wachstum unter dem Dach der Otto Group Hohe und langjährige Expertise im E-Commerce vereint mit einer offenen Kultur Viel Platz für eigenverantwortliches Handeln, frische Ideen und neue Herausforderungen Ein tolles Team aus hochmotivierten und –qualifizierten Kolleginnen und Kollegen Vielfältige Weiterbildungsmöglichkeiten, flexible Arbeitszeiten und moderne Arbeitsformen wie z.B. Homeoffice Eine attraktive Vergütung mit diversen Zusatzleistungen wie z. B. Personalkauf, Zuschüssen Altersvorsorge und VWL Damit überzeugen wirFlexible ArbeitszeitenAgile ArbeitsweiseUnbefristeter VertragMobiles ArbeitenMitarbeiterevents
Zum Stellenangebot

Big Data Solution Engineer (m/w/d)

Fr. 26.02.2021
München, Stuttgart, Aalen (Württemberg), Böblingen, Holzgerlingen, Dresden, Hamburg
Als ein weltweit führendes IT-Beratungs- und Serviceunternehmen mit über 180.000 Mitarbeitern weltweit sind wir seit 2002 in der DACH Region etabliert und verbinden regionale Präsenz mit globaler Stärke. Wir begleiten führende Unternehmen in Deutschland, Österreich und der Schweiz auf ihrer Reise zum intelligenten Unternehmen. Dabei bringen wir das volle Potenzial von Analytics, Cloud, Artificial Intelligence, Cybersecurity, Industrie 4.0, Internet of Things und neuesten Technologien wie SAP S/4HANA zu unseren Kunden. Als Trusted Advisor stehen wir unseren Kunden in allen Projektphasen zur Seite: von der Beratung über Software-Design und -Engineering bis hin zur Umsetzung und zum Betrieb. Global vernetzt und lokal nah dran: Das macht uns für unsere Kunden zu einem geschätzten Partner für Digitalisierungsvorhaben und für IT-Talente zu einem spannenden Arbeitgeber mit vielfältigen Lern- und Entwicklungsmöglichkeiten. Konzeption, Design und Entwicklung von digitalen, datengetriebenen Lösungen, sowie die Überführung in einen stabilen Betrieb Lösungsentwurf kompletter Use-Case-Pipelines - von der Datenaufnahme über die Datenverarbeitung bis hin zur Softwareverteilung und Feedback Loop – das Ganze auf modernen, cloudbasierten Technologien Definition und Anwendung von Best Practices im Bereich Big Data Analytics Evaluation und Auswahl potenzieller Technologien, sowie Präsentation aller Vor- und Nachteile gegenüber internen und externen Stakeholdern Rollout von cloudbasierten Datenplattformen und Unterstützung bei der Anpassung darauf aufsetzender Apps & Services Erstellen und Pflegen von datengetriebenen Anwendungen auf cloudbasierten Datenplattformen Verbesserung und Stabilisierung von Datenplattformen und dazugehörigen Apps & Services, sowie deren Automatisierung Erstellen von technischen Dokumentationen, Release Notes, Blogbeiträge in einschlägigen Foren und Austausch in Communities über Best Practices Enge Zusammenarbeit mit internen und externen Fachbereichen, Data Scientists, Data Engineers und anderen Datenkonsumenten Weiterbildung über aktuelle Trends und Technologien im Bereich Big Data Analytics und Austausch mit Kollegen Hohe Kompetenz im Handling von Big-Data-Workloads in großen, unternehmensweiten Produktivumgebungen Kenntnisse in Data-Engineering-Pattern (Ingestion, Transformation, Storage, Consumption etc.), BigData/Realtime & Distributed Systems (Hadoop ecosystem, Kafka, NiFi, Cassandra, Spark, YARN, Zookeeper, etc.), Datenbanken (relational, NoSQL – document, column, graph; ElasticSearch) und Cloud-Speicher & Services (MS Azure, AWS) Gutes KnowHow in mindestens einer der aufgeführten Programmiersprachen: Python, C#, Java, Shell, R Software Engineering (Microservices, Design Patterns, Version Control, Automated Testing, Concurrent Programming etc.) Continuous Integration, Deployment, und Delivery Fortgeschrittene Erfahrung in Linux Containerisierung / Containerorchestrierung (OpenShift, Docker, Kubernetes) Automatisierung und Deployment mittels CI/CD und Infrastructure as Code (ansible, chef, puppet, Terraform) Allgemeines Verständnis von Netzwerken, Infrastruktur, Orchestrierung, verteilten Systemen und IT-Sicherheitsprinzipien (insbesondere auf Enterprise-Level) DevOps mindset (you build it, you run it; Verantwortung für die eigene Arbeit übernehmen) Ausgeprägte Kommunikationsfähigkeit in Deutsch und Englisch Bereitschaft und Fähigkeit, neue Technologien und Tools zu erlernen Teamplayer, offen für die Arbeit in einer agilen Umgebung Ergebnisorientierte Kommunikation mit Personen aus unterschiedlichen Hierarchiestufen und technischen Fähigkeiten Spannende IT-Projekte am Puls neuester Technologien wie Cloud, Artificial Intelligence, SAP S/4HANA, Cloud, IoT und viele mehr Regionale, aber auch internationale Projekteinsätze bei unseren Kunden, die unter anderem zu den Top DAX- und MDax-Unternehmen gehören Ein globales Netzwerk mit mehr als 175.000 IT-Experten auf sechs Kontinenten Maßgeschneiderte Aus- und Weiterbildungsmöglichkeiten Vertrauensarbeitszeit und Remote Arbeitsmöglichkeiten für eine ausgewogene Work-Life-Balance, Ein attraktives Gehaltspaket inkl. betrieblicher Altersvorsorge Regelmäßige Team- und Unternehmensevents wie bspw. die Teilnahme am „Spirit of Wipro Run“ Unser Mitarbeiter-werben-Mitarbeiter-Programm mit attraktiver Sonderprämie
Zum Stellenangebot

Big Data Product Engineer (m/w/d)

Fr. 26.02.2021
München, Stuttgart, Aalen (Württemberg), Böblingen, Holzgerlingen, Dresden, Hamburg
Als ein weltweit führendes IT-Beratungs- und Serviceunternehmen mit über 180.000 Mitarbeitern weltweit sind wir seit 2002 in der DACH Region etabliert und verbinden regionale Präsenz mit globaler Stärke. Wir begleiten führende Unternehmen in Deutschland, Österreich und der Schweiz auf ihrer Reise zum intelligenten Unternehmen. Dabei bringen wir das volle Potenzial von Analytics, Cloud, Artificial Intelligence, Cybersecurity, Industrie 4.0, Internet of Things und neuesten Technologien wie SAP S/4HANA zu unseren Kunden. Als Trusted Advisor stehen wir unseren Kunden in allen Projektphasen zur Seite: von der Beratung über Software-Design und -Engineering bis hin zur Umsetzung und zum Betrieb. Global vernetzt und lokal nah dran: Das macht uns für unsere Kunden zu einem geschätzten Partner für Digitalisierungsvorhaben und für IT-Talente zu einem spannenden Arbeitgeber mit vielfältigen Lern- und Entwicklungsmöglichkeiten. Entwicklung neuer Funktionalitäten, insbesondere für die von der Datenplattform zur Verfügung gestellten Kernfunktionen, wie: Real Time Ingestion Services Data-Governance-Lösungen Data Supermarkets (UI für Datenkonsumenten) Konzeption, Design und Entwicklung von digitalen, datengetriebenen Lösungen, sowie die Überführung in einen stabilen Betrieb Lösungsentwurf kompletter Use-Case-Pipelines - von der Datenaufnahme über die Datenverarbeitung bis hin zur Softwareverteilung und Feedback Loop – das Ganze auf modernen, cloudbasierten Technologien Definition und Anwendung von Best Practices im Bereich Big Data Analytics Evaluation und Auswahl potenzieller Technologien, sowie Präsentation aller Vor- und Nachteile gegenüber internen und externen Stakeholdern Leiste Deinen Beitrag zur Verbesserung des Big-Data-Software-Stacks unserer Kunden und helfe mit beim Design endgültiger Produktionsumgebungen Lösen von Incidents und Change Requests (3rd Level Support) Erstellen von technischen Dokumentationen, Release Notes, Blogbeiträge in einschlägigen Foren und Austausch in Communities über Best Practices Enge Zusammenarbeit mit internen und externen Fachbereichen, Data Scientists, Data Engineers und anderen Datenkonsumenten Weiterbildung über aktuelle Trends und Technologien im Bereich Big Data Analytics und Austausch mit Kollegen Hohe Kompetenz im Handling von Big-Data-Workloads in großen, unternehmensweiten Produktivumgebungen Kenntnisse in Data-Engineering-Pattern (Ingestion, Transformation, Storage, Consumption etc.), BigData/Realtime & Distributed Systems (Hadoop ecosystem, Kafka, NiFi, Cassandra, Spark, YARN, Zookeeper, etc.), Datenbanken (relational, NoSQL – document, column, graph; ElasticSearch), Cloud-Speicher & Services (MS Azure, AWS), Data Governance Frameworks (zB. Informatica) und Data Virtualization Technologien (z.B. Denodo) Gutes KnowHow in mindestens einer der aufgeführten Programmiersprachen: Python, C#, Java, Shell, R Software Engineering (Microservices, Design Patterns, Version Control, Automated Testing, Concurrent Programming etc.) Continuous Integration, Deployment, und Delivery Fortgeschrittene Erfahrung in Linux Containerisierung / Containerorchestrierung (OpenShift, Docker, Kubernetes) Automatisierung und Deployment mittels CI/CD und Infrastructure as Code (ansible, chef, puppet, Terraform) Allgemeines Verständnis von Netzwerken, Infrastruktur, Orchestrierung, verteilten Systemen und IT-Sicherheitsprinzipien (Data Access Control) DevOps mindset (you build it, you run it; Verantwortung für die eigene Arbeit übernehmen) Ausgeprägte Kommunikationsfähigkeit in Deutsch und Englisch Bereitschaft und Fähigkeit, neue Technologien und Tools zu erlernen Teamplayer, offen für die Arbeit in einer agilen Umgebung Ergebnisorientierte Kommunikation mit Personen aus unterschiedlichen Hierarchiestufen und technischen Fähigkeiten, auch auf C-Level Spannende IT-Projekte am Puls neuester Technologien wie Cloud, Artificial Intelligence, SAP S/4HANA, Cloud, IoT und viele mehr Regionale, aber auch internationale Projekteinsätze bei unseren Kunden, die unter anderem zu den Top DAX- und MDax-Unternehmen gehören Ein globales Netzwerk mit mehr als 175.000 IT-Experten auf sechs Kontinenten Maßgeschneiderte Aus- und Weiterbildungsmöglichkeiten Vertrauensarbeitszeit und Remote Arbeitsmöglichkeiten für eine ausgewogene Work-Life-Balance, Ein attraktives Gehaltspaket inkl. betrieblicher Altersvorsorge Regelmäßige Team- und Unternehmensevents wie bspw. die Teilnahme am „Spirit of Wipro Run“ Unser Mitarbeiter-werben-Mitarbeiter-Programm mit attraktiver Sonderprämie
Zum Stellenangebot

Big Data DevOps Engineer (m/w/d)

Fr. 26.02.2021
München, Stuttgart, Aalen (Württemberg), Böblingen, Holzgerlingen, Dresden, Hamburg
Als ein weltweit führendes IT-Beratungs- und Serviceunternehmen mit über 180.000 Mitarbeitern weltweit sind wir seit 2002 in der DACH Region etabliert und verbinden regionale Präsenz mit globaler Stärke. Wir begleiten führende Unternehmen in Deutschland, Österreich und der Schweiz auf ihrer Reise zum intelligenten Unternehmen. Dabei bringen wir das volle Potenzial von Analytics, Cloud, Artificial Intelligence, Cybersecurity, Industrie 4.0, Internet of Things und neuesten Technologien wie SAP S/4HANA zu unseren Kunden. Als Trusted Advisor stehen wir unseren Kunden in allen Projektphasen zur Seite: von der Beratung über Software-Design und -Engineering bis hin zur Umsetzung und zum Betrieb. Global vernetzt und lokal nah dran: Das macht uns für unsere Kunden zu einem geschätzten Partner für Digitalisierungsvorhaben und für IT-Talente zu einem spannenden Arbeitgeber mit vielfältigen Lern- und Entwicklungsmöglichkeiten. Entwicklung neuer Funktionalitäten für globale, cloudbasierte Datenplattformen Erstellen und Pflegen von datengetriebenen Anwendungen auf cloudbasierten Datenplattformen Evaluierung neuer Technologien im Bereich Cloud Computing, Distributed Computing, Data Engineering und Data Science Verbesserung und Stabilisierung von Datenplattformen und dazugehörigen Apps & Services, sowie deren Automatisierung Lösen von Incidents und Change Requests (3rd Level Support) Enge Zusammenarbeit mit internen und externen Fachbereichen, Data Scientists, Data Engineers und anderen Datenkonsumenten Erstellen von technischen Dokumentationen, Release Notes, Blogbeiträge in einschlägigen Foren und Austausch in Communities über Best Practices Sehr gute Kenntnisse in BigData/Realtime & Distributed Systems (Hadoop ecosystem, Kafka, NiFi, Cassandra, Spark, YARN, Zookeeper, etc.), Datenbanken (relational, NoSQL – document, column, graph; ElasticSearch), Cloud-Speicher & Services (MS Azure, AWS), Workflow-Orchestrierung und Automatisierung (z.B. Luigi) sowie Data Science Tooling (z.B. Jupyter, R-Studio, Zeppelin) Grundlegendes Verständnis der Funktionsweisen von Machine-Learning-Algorithmen Gutes KnowHow in mindestens einer der aufgeführten Programmiersprachen: Python, C#, Java, Shell, R Software Engineering (Microservices, Design Patterns, Version Control, Automated Testing, Concurrent Programming etc.) Continuous Integration, Deployment, und Delivery Containerisierung / Containerorchestrierung (OpenShift, Docker, Kubernetes) Automatisierung und Deployment mittels CI/CD und Infrastructure as Code (ansible, chef, puppet, Terraform) Allgemeines Verständnis von Netzwerken, Infrastruktur, Orchestrierung, verteilten Systemen und IT-Sicherheitsprinzipien DevOps mindset (you build it, you run it; Verantwortung für die eigene Arbeit übernehmen) Ausgeprägte Kommunikationsfähigkeit in Deutsch und Englisch Bereitschaft und Fähigkeit, neue Technologien und Tools zu erlernen Teamplayer, offen für die Arbeit in einer agilen Umgebung Spannende IT-Projekte am Puls neuester Technologien wie Cloud, Artificial Intelligence, SAP S/4HANA, Cloud, IoT und viele mehr Regionale, aber auch internationale Projekteinsätze bei unseren Kunden, die unter anderem zu den Top DAX- und MDax-Unternehmen gehören Ein globales Netzwerk mit mehr als 175.000 IT-Experten auf sechs Kontinenten Maßgeschneiderte Aus- und Weiterbildungsmöglichkeiten Vertrauensarbeitszeit und Remote Arbeitsmöglichkeiten für eine ausgewogene Work-Life-Balance, Ein attraktives Gehaltspaket inkl. betrieblicher Altersvorsorge Regelmäßige Team- und Unternehmensevents wie bspw. die Teilnahme am „Spirit of Wipro Run“ Unser Mitarbeiter-werben-Mitarbeiter-Programm mit attraktiver Sonderprämie
Zum Stellenangebot

Data Engineer ETL - Engineering Data (m/w/div.)

Do. 25.02.2021
Dresden
Möchten Sie Ihre Ideen in nutzbringende und sinnvolle Technologien verwandeln? Ob im Bereich Mobility Solutions, Consumer Goods, Industrial Technology oder Energy and Building Technology - mit uns verbessern Sie die Lebensqualität der Menschen auf der ganzen Welt. Willkommen bei Bosch.Die Robert Bosch Semiconductor Manufacturing Dresden GmbH freut sich auf Ihre Bewerbung!Anstellungsart: Unbefristet Arbeitszeit: Vollzeit Arbeitsort: DresdenNeues entstehen lassen: Gemeinsam nehmen wir eine neue, voll automatisierte 300mm Halbleiterfertigung in Dresden in Betrieb und setzen dabei auf modernste Technologien.Die Zukunft mitgestalten: Im Rahmen des Aufbaus übernehmen Sie Aufgaben in Datenarchitektur, Entwicklung, Test, Rollout und Monitoring von Software-Komponenten, wie ETL-Strecken, DWH und Big Data Lösungen für Analytics und Data Science Anwendungen.Verantwortung übernehmen: Sie verantworten die Konzeption, das Design und die Implementierung von ETL Prozessen zur Integration von Daten.Zuverlässig umsetzen: Sie sind verantwortlich für die Datenherkunftsanalyse und Entwicklung des logischen Datenmodells sowie Umsetzung in ein physisches Design sowie die Implementierung der Datenstrecken.Kreativität und Freiraum nutzen: Sie gestalten aktiv Konzept, Optimierung und Weiterentwicklung einer umfassenden Datenlandschaft hinsichtlich Architektur, Datenorganisation und Performance.Strukturiert bewerten: Sie stellen Aspekte wie Wirtschaftlichkeit, Qualität, Zuverlässigkeit und Innovation sicher. Die Extraktion, Validierung, Aufbereitung und Analyse großer, (un)strukturierter Datenbestände mit geeigneten Verfahren gehört ergänzend zu Ihren Aufgaben.Persönlichkeit: teamfähig, flexibel, motiviert, belastbar, kommunikationsstark, sehr gutes Organisations- und Problemlösungsvermögen sowie ausgeprägtes QualitätsbewusstseinArbeitsweise: selbständig, eigenverantwortlich, ergebnis- und qualitätsorientiert sowie zuverlässigQualifikation: Erfahrung und fundiertes Know-how in der Erstellung von Datenstrukturen und Datenstrecken in einer komplexen DatenintegrationslandschaftKenntnisse: in ETL-Technologien sind wünschenswert, idealerweise in AbInitio, ebenso Datenbankkenntnisse in Big Data Plattformen, Zeitreihen- oder relationalen Datenbanken sowie in der Verarbeitung von Massendaten. Erfahrungen aus der Halbleiterfertigung sowie aus dem Bereich Data Science sowie grundlegende Programmierkenntnisse in einer Hochsprache (C#, C++, Java) sind von Vorteil, sehr gute SQL-Kenntnisse sind VoraussetzungSprachen: sehr gute Deutsch- und Englischkenntnisse in Wort und SchriftAusbildung: abgeschlossenes Hochschulstudium (Master/Diplom) im Bereich Informatik, Mathematik, Statistik, vergleichbar Studiengang oder entsprechende BerufserfahrungFlexibles und mobiles Arbeiten: Wir bieten Ihnen flexible Arbeits(zeit)modelle.Gesundheit und Sport: Bei uns erwartet Sie ein breites Angebot an Gesundheits- und Sportaktivitäten.Kinderbetreuung: Nutzen Sie unseren Vermittlungsservice für Angebote rund um die Kinderbetreuung.Mitarbeiterrabatte: Bosch Mitarbeiter profitieren von diversen Vergünstigungen.Freiraum für Kreativität: Wir bieten Ihnen Freiräume für kreatives Arbeiten.Betriebliche Sozialberatung und Pflege: Nutzen Sie unsere betriebliche Sozialberatung vor Ort inkl. der Online-Beratungsmöglichkeiten sowie unseren Vermittlungsservice für Pflegedienstleistungen.Für Ihren individuellen Leistungskatalog kontaktieren Sie gerne Ihren künftigen Fachbereich oder Ihre Personalabteilung.
Zum Stellenangebot
12


shopping-portal