Illustration
Illustration

FreeworkExpert ELT & Data & API

CAT-AMANIA
Java
Oracle
Docker
Jenkins
Shell
Python
Kubernetes
Gitlab
CI/CD
SAS
Active Directory
Grafana
Terraform
Talend
Dataiku
Elasticsearch
Kibana
UNIX
ELK
Snowflake
Logstash
Jupyter
Qliksense
Dbt
Vertica
Paris, France
400-550 € par jour
Télétravail : partial
contractor
Publié il y a 2 mois

Description du poste

Je suis à la recherche pour un de nos clients d'un Expert ELT & Data & API.

• Connaissances techniques :

- Expérimenté(e) sur la mise en place des flux d’ingestion des données (ETL et ELT, Talend, DBT, Snowpipe)

- Maitrise des outils de DevOps et des langages de programmation (Java, Spark, ELK, Kubernetes, Gitlab, Jenkins, Spring Framework, Unix, Shell, Python)

- Connaissance bases de données relationnelles et non relationnelles (Snowflake, Oracle, Vertica)

- Connaissance ou experimentation de Snowflake (Snowpipe, Virtual warehouse, Stage, Time-Travel, SnowPark).

- Notions des outils d’explorations de données mis à disposition sur le Datalake/Datalab (SAS, Qliksense, Dataiku, Jupyter).

- Technologies complémentaires : Active Directory, SSO, AWS s3, AWS Bedrock, wso2, Jfrog Artifactory, Docker, MLflow, Airflow, Terraform.

Langue(s) : Anglais : Opérationnel (usage quotidien)

ACTIVITES PRINCIPALES & LIVRABLES

▪ Être le référent technique sur plusieurs applicatifs et composantes sur socles IT (DWH, CI/CD, Datalab, APIs…) en relation avec les streams Leaders et l’architecte Design Authority.

▪ Apporter le support nécessaire aux entités dans leur utilisation accompagnement sur Talend/Java et sur l'amélioration de la performance de leur JOB ainsi que sur les bases de données (Snowflake, Oracle, Vertica). Impliquant le suivi de migrations, l’amélioration des processus, l’administration de la TMC et l’entretien du lien avec l’éditeur et le support.

▪ Développer les nouveaux composants (Talend,DBT, Java, Shell, Oracle, Vertica, Snowflake, Jupyter, Python) afin d'alléger le travail des entités dans la Data Factory et permettre aux entités de se focaliser sur leur business.

▪ Assurer le RUN (niveau 3) de l'infrastructure pour debugger les applicatifs et pour apporter des solutions efficientes (ElasticSearch, Logstash, Kibana,Grafana).

▪ Evaluer et valider les estimations de l’infogérant et des sous-traitants.

▪ Accompagner et superviser les missions confiées aux sous-traitants.

▪ Analyse, conception et mise en place d’un monitoring centralisé des flux Datawarehouse.

Je suis à la recherche pour un de nos clients d'un Expert ELT & Data & API.

• Connaissances techniques :

- Expérimenté(e) sur la mise en place des flux d’ingestion des données (ETL et ELT, Talend, DBT, Snowpipe)

- Maitrise des outils de DevOps et des langages de programmation (Java, Spark, ELK, Kubernetes, Gitlab, Jenkins, Spring Framework, Unix, Shell, Python)

- Connaissance bases de données relationnelles et non relationnelles (Snowflake, Oracle, Vertica)

- Connaissance ou experimentation de Snowflake (Snowpipe, Virtual warehouse, Stage, Time-Travel, SnowPark).

- Notions des outils d’explorations de données mis à disposition sur le Datalake/Datalab (SAS, Qliksense, Dataiku, Jupyter).

- Technologies complémentaires : Active Directory, SSO, AWS s3, AWS Bedrock, wso2, Jfrog Artifactory, Docker, MLflow, Airflow, Terraform.

Langue(s) : Anglais : Opérationnel (usage quotidien)

ACTIVITES PRINCIPALES & LIVRABLES

▪ Être le référent technique sur plusieurs applicatifs et composantes sur socles IT (DWH, CI/CD, Datalab, APIs…) en relation avec les streams Leaders et l’architecte Design Authority.

▪ Apporter le support nécessaire aux entités dans leur utilisation accompagnement sur Talend/Java et sur l'amélioration de la performance de leur JOB ainsi que sur les bases de données (Snowflake, Oracle, Vertica). Impliquant le suivi de migrations, l’amélioration des processus, l’administration de la TMC et l’entretien du lien avec l’éditeur et le support.

▪ Développer les nouveaux composants (Talend,DBT, Java, Shell, Oracle, Vertica, Snowflake, Jupyter, Python) afin d'alléger le travail des entités dans la Data Factory et permettre aux entités de se focaliser sur leur business.

▪ Assurer le RUN (niveau 3) de l'infrastructure pour debugger les applicatifs et pour apporter des solutions efficientes (ElasticSearch, Logstash, Kibana,Grafana).

▪ Evaluer et valider les estimations de l’infogérant et des sous-traitants.

▪ Accompagner et superviser les missions confiées aux sous-traitants.

▪ Analyse, conception et mise en place d’un monitoring centralisé des flux Datawarehouse.

Je suis à la recherche pour un de nos clients d'un Expert ELT & Data & API.

• Connaissances techniques :

- Expérimenté(e) sur la mise en place des flux d’ingestion des données (ETL et ELT, Talend, DBT, Snowpipe)

- Maitrise des outils de DevOps et des langages de programmation (Java, Spark, ELK, Kubernetes, Gitlab, Jenkins, Spring Framework, Unix, Shell, Python)

- Connaissance bases de données relationnelles et non relationnelles (Snowflake, Oracle, Vertica)

- Connaissance ou experimentation de Snowflake (Snowpipe, Virtual warehouse, Stage, Time-Travel, SnowPark).

- Notions des outils d’explorations de données mis à disposition sur le Datalake/Datalab (SAS, Qliksense, Dataiku, Jupyter).

- Technologies complémentaires : Active Directory, SSO, AWS s3, AWS Bedrock, wso2, Jfrog Artifactory, Docker, MLflow, Airflow, Terraform.

Langue(s) : Anglais : Opérationnel (usage quotidien)

ACTIVITES PRINCIPALES & LIVRABLES

▪ Être le référent technique sur plusieurs applicatifs et composantes sur socles IT (DWH, CI/CD, Datalab, APIs…) en relation avec les streams Leaders et l’architecte Design Authority.

▪ Apporter le support nécessaire aux entités dans leur utilisation accompagnement sur Talend/Java et sur l'amélioration de la performance de leur JOB ainsi que sur les bases de données (Snowflake, Oracle, Vertica). Impliquant le suivi de migrations, l’amélioration des processus, l’administration de la TMC et l’entretien du lien avec l’éditeur et le support.

▪ Développer les nouveaux composants (Talend,DBT, Java, Shell, Oracle, Vertica, Snowflake, Jupyter, Python) afin d'alléger le travail des entités dans la Data Factory et permettre aux entités de se focaliser sur leur business.

▪ Assurer le RUN (niveau 3) de l'infrastructure pour debugger les applicatifs et pour apporter des solutions efficientes (ElasticSearch, Logstash, Kibana,Grafana).

▪ Evaluer et valider les estimations de l’infogérant et des sous-traitants.

▪ Accompagner et superviser les missions confiées aux sous-traitants.

▪ Analyse, conception et mise en place d’un monitoring centralisé des flux Datawarehouse.

A propos de l'entreprise

CAT-AMANIA, Saint-Herblain ()

Créée en 1999, CAT-AMANIA fait partie des ESN dynamiques et innovantes qui s’appuie sur ses expertises métiers, techniques et méthodologiques pour accompagner ses clients dans leur transformation digitale. Aujourd’hui CAT-AMANIA c’est : 71 millions d’€ de chiffre d’affaires, 950 collaborateurs répartis sur 18 agences en France et à l’international. Construire ensemble pour mieux grandir Portée par ses valeurs de Joie, de Confiance, d’Audace, de Persévérance et de Respect, notre entreprise souhaite les partager avec vous dans la réussite de projets communs. Cat-Amania s'engage à assurer la diversité de ses équipes et à créer un environnement de travail inclusif. Nous accueillons toutes les candidatures sans distinction d'âge, de genre, d'origine, d'orientation sexuelle, de croyance religieuse ou de handicap.