
T-key work experience S.r.l
T-KEY WORK EXPERIENCE SRL a Socio Unico | A tempo pieno Milano, Italy | Pubblicato il 17/03/2023 Il nostro lavoro inizia da un briefing con il cliente volto a comprenderne esigenze e necessità. Attraverso le diverse fasi di ricerca, head hunting e selezione individuiamo il candidato. Procediamo infine alle pratiche di assunzione e inserimento in azienda del lavoratore scelto . Ricerchiamo , con un puntuale lavoro di indagine e verifica diretta, i migliori candidati e li selezioniamo attraverso una molteplicità di strumenti: è il nostro core business da quando siamo nati. Ogni ricerca è speciale e la affrontiamo come se fosse unica, attenti alle richieste e alle esigenze dell’azienda , cui rispondiamo grazie ad un ascolto attivo e condividendo uno dei nostri valori più significativi, la fiducia. Per ogni ricerca restituiamo al cliente una mappatura organizzativa delle funzioni aziendali e una indicazione della situazione retributiva dei ruoli analizzati. Il nostro è un attento lavoro di intelligence particolarmente apprezzato dai nostri clienti a ulteriore supporto della ricerca Descrizione lavoro La risorsa che sarà inserita all’interno del Team si occuperà di : Sviluppare, costruire, testare emantenere architetture di data-pipeline (dall’analisi esplorativa alla produzione) Allineare l’architettura dei datiai requisiti aziendali Identificare modi per migliorarel’affidabilità, l’efficienza e la qualità dei dati Preparare i dati per lamodellazione predittiva e prescrittiva Collaborare con Enterprise Architects, Data Engineers per progettare la costruzione e la distribuzione delle pipeline. Garantire la conformità con la governance deidati e le politiche di sicurezza · Conoscenza e utilizzo dei Database(relazionali come mySQL, PostgreSQL e Oracle, e noSQL come MongoDB, Cassandra eRedis) · Conoscenza e utilizzo Dataprocessing (Apache Spark, Apache Kafka) · Competenza base dei seguenti Linguaggidi programmazione (Python, Java e R) · Gestire Data migration (spostare i dati da uno o più sistemi all’altrosenza comprometternel’integrità)e data integration (consolidare i dati provenienti da varie fonti e combinarliin modo significativo e prezioso) · Conoscenza base di Linux/UNIX · Conoscenza e/o possesso di certificazionirelative ai principali Public Cloud (AWS, GCP, Azure) · Conoscenza di processi o tool di ETL/ELT · Buona conoscenza di un linguaggio diprogrammazione ad oggetti, preferibilmente Java o Python · Spiccate doti relazionali e predisposizione a lavorare in team; · Capacità organizzative e di gestione del tempo J-18808-Ljbffr
Per candidarti a questo lavoro visita www.adzuna.it.