Eurobios Scientific Computing Branch (ESCB), Département d’Eurobios Mews Lab spécialisé dans le calcul scientifique, recrute un(e) Ingénieur(e) data maîtrisant l’administration de bases de données et le traitement des données associé dans le cadre de projets avec des partenaires industriels de référence.
La personne recrutée travaillera dans un environnement scientifique de premier plan (collaboration avec centres de R&D en France et à l’International, Laboratoires de Recherche Universitaires) sur des sujets de pointe en traitement statistique de données et data mining. Elle bénéficiera du support d’une équipe pluridisciplinaire et travaillera sous l’autorité directe du directeur technique du Département ESCB.
Une bonne connaissance des langages SQL et Python (pandas, numpy) est exigée. Des connaissances poussées sur l’ensemble des étapes de traitement des données (collecte, nettoyage, consolidation, formatage) et l’administration de bases de données, ainsi que de postgreSQL, seront appréciées. La maîtrise de l’environnement Linux est également demandée.
Le poste consistera en l’accompagnement des data scientists dans l’utilisation des données sur divers projets et intègrera les tâches suivantes :
- définition de nouveaux schémas de bases de données relationnelle en fonction des besoins des data scientists;
- développement d’outils communs pour faciliter l’utilisation des données ;
- automatisation des processus de génération de bases de données ;
- développement de tests de validation de la cohérence des bases de données.
Personne à contacter
Maxime Gueguin Directeur Technique Eurobios Scientific Computing Branch mgueguin@eurobios.com Merci d’envoyer CV et brève lettre de motivationCaractéristiques de l'emploi
Catégorie emploi | Data Scientist |
Eurobios Scientific Computing Branch (ESCB), Département d’Eurobios Mews Lab spécialisé dans le calcul scientifique, recrute un(e) Ingénieur(e) data maîtrisant l’administration de bases de do...
Eurobios Scientific Computing Branch (ESCB), Département d’Eurobios Mews Lab spécialisé dans le calcul scientifique, recrute un(e) data scientist maîtrisant les algorithmes d’estimation et d’apprentissage statistique, dans le cadre de projets de R&D avec des partenaires industriels de référence.
La personne recrutée travaillera dans un environnement scientifique de premier plan (collaboration avec centres de R&D en France et à l’International, Laboratoires de Recherche Universitaires) sur des sujets de pointe en traitement statistique de données et data mining. Elle bénéficiera du support d’une équipe pluridisciplinaire et travaillera sous l’autorité directe du directeur technique du Département ESCB.
Une bonne connaissance des langages de programmation Python et R, et de solides notions en statistiques sont exigées : méthodes de statistiques paramétriques (régressions, modèle de mélange), d’apprentissage supervisé (forêts aléatoires, méthodes à noyaux…) et non supervisé (K-moyennes, détection d’anomalies, …). Des connaissances poussées sur l’ensemble des étapes de traitement des données (collecte, nettoyage, consolidation, formatage), ainsi que de postgreSQL, seront appréciées. La maîtrise de l’environnement Linux est également demandée.
Le poste consistera en l’accompagnement la mise en place de modèles de machine learning sur des données d’industriels sur divers projets et intègrera les tâches suivantes :
- traitement des données nécessaires aux modèles ;
- définition des automatisations de construction de données avec le pool de data scientists et data engineers;
- participation aux développements d’outils communs pour la mise en place de modèles de machine learning.
Personne à contacter
Maxime Gueguin Directeur Technique Eurobios Scientific Computing Branch mgueguin@eurobios.com Merci d’envoyer CV et brève lettre de motivationCaractéristiques de l'emploi
Catégorie emploi | Data Scientist |
Eurobios Scientific Computing Branch (ESCB), Département d’Eurobios Mews Lab spécialisé dans le calcul scientifique, recrute un(e) data scientist maîtrisant les algorithmes d’estimation et d...
À PROPOS D'ATOS
[/vc_column_text]Atos est un leader international de la transformation digitale avec 110 000 collaborateurs dans 73 pays et un chiffre d’affaires annuel de 12 milliards d’euros. Numéro un européen du Cloud, de la cybersécurité et des supercalculateurs, le Groupe fournit des solutions intégrées de Cloud Hybride Orchestré, Big Data, Applications Métiers et Environnement de Travail Connecté. Partenaire informatique mondial des Jeux Olympiques et Paralympiques, le Groupe exerce ses activités sous les marques Atos, Atos|Syntel, et Unify. Atos est une SE (Société Européenne) cotée sur Euronext Paris et fait partie de l’indice CAC 40. Atos est responsable de la définition, de la conception et de la construction de plateformes et de solutions sécurisées Big Data. Vous interviendrez au sein d’une équipe dynamique d’expertise Big Data en forte croissance réalisant des activités allant du conseil en architecture et gouvernance de la donnée aux aspects Data Ingestion, Data Analytiques et DataScience / IA , en passant par la mise en place, l’intégration, le développement et l’optimisation de solutions Big Data pour les projets stratégiques de nos clients. Notre valeur ajoutée repose sur une forte expertise technique et business de la data renforcée par de nombreux partenariats avec les éditeurs actifs dans les domaines des architectures applicatives distribuées et du Big Data & Analytics.[/vc_column_text][/vc_column][/vc_row]DESCRIPTION DU POSTE
[/vc_column_text] Dans le cadre de notre croissance et pour répondre aux nouveaux besoins de nos clients, nous recherchons à étoffer nos équipes Big Data en recrutant un(e) Data Engineer Expérimenté. Au sein de notre équipe, vous interviendrez au sein des projets que nous réalisons pour nos clients et mettez en œuvre les compétences suivantes :- Expertise en développement Python ou Java Spring Boot
- Expertise sur un des framework suivants : Spark, Kafka Connect & Streams, Apache Beam, …
- Connaissance des écosystèmes Data (NoSQL/DW/Hadoop) : ELK (ElasticSearch, Logstash, Kibana) , MongoDB, Cassandra, Redis, CouchBase, Teradata, SnowFlake, BigQuery, Redshift, Hive, Impala, Object storage, HDFS, …
- La connaissance des services managés BigData de Google Cloud Platform (Dataflow, BigQuery, Pub/Sub, ML Engine,…) est appréciée
- La connaissance des approches Agile & DevOps est appréciée
À PROPOS D'ATOS
[/vc_column_text]Atos est un leader international de la transformation digitale avec 110 000 collaborateurs dans 73 pays et un chiffre d’affaires annuel de 12 milliards d’euros. Numéro un européen du Cloud, de la cybersécurité et des supercalculateurs, le Groupe fournit des solutions intégrées de Cloud Hybride Orchestré, Big Data, Applications Métiers et Environnement de Travail Connecté. Partenaire informatique mondial des Jeux Olympiques et Paralympiques, le Groupe exerce ses activités sous les marques Atos, Atos|Syntel, et Unify. Atos est une SE (Société Européenne) cotée sur Euronext Paris et fait partie de l’indice CAC 40. La raison d’être d’Atos est de contribuer à façonner l’espace informationnel. Avec ses compétences et ses services, le Groupe supporte le développement de la connaissance, de l’éducation et de la recherche dans une approche pluriculturelle et contribue au développement de l’excellence scientifique et technologique. Partout dans le monde, Atos permet à ses clients et à ses collaborateurs, et plus généralement au plus grand nombre, de vivre, travailler et progresser durablement et en toute confiance dans l’espace informationnel. Atos est le leader européen du High Performance Computing et délivre des solutions de Calcul Haute Performance parmi les plus performantes au monde afin de résoudre les problèmes scientifiques les plus complexes d’aujourd’hui et de demain. Au sein d’une équipe d’experts HPC, nous recherchons un(e) Ingénieur Système Linux Senior pour travailler sur l’administration et le support de clusters HPC avancés sur le site de ter@tec.[/vc_column_text][/vc_column][/vc_row]VOS MISSIONS
[/vc_column_text][/vc_column][/vc_row]VOTRE PROFIL
[/vc_column_text]De formation supérieure en informatique systèmes et réseaux type école d'ingénieur ou cursus universitaire équivalent, vous justifiez d’une expérience de 5 ans minimum et avez développé des compétences avancées en systèmes d'exploitation Linux et technologies Open Source. Vous travaillerez sur des environnements techniques de type : Linux Redhat/CentOS, Scripting Shell / Python, Monitoring Nagios, Docker, OpenStack, Puppet, Ansible, Réseaux Ethernet/Infiniband, DNS, DHCP, Web, FTP, authentification etc. Idéalement vous avez des compétences en systèmes distribués HPC et en stockage. Engagé et passionné par votre métier vous avez développé un esprit d'équipe et des capacités de communications reconnues. Rigoureux et pugnace, vous avez le goût du troubleshooting et des nouvelles technologies Anglais professionnel Ce poste est exercé dans un environnement classifié, demandant une habilitation de niveau Confidentiel Défense. Chez Atos, nous voulons que nos employés se sentent valorisés, appréciés et libres d'être eux-mêmes au travail. Nos process RH sont conçus pour prévenir la discrimination envers l'identité ou l'orientation sexuelle, la religion, l’origine ethnique, l'âge, la neurodiversité, le handicap, la citoyenneté ou tout autre aspect qui rend nos collaborateurs uniques. Partout dans le monde, nous avons créé plusieurs programmes pour soutenir la culture inclusive d'Atos, et nous travaillons pour nous assurer que tous nos collaborateurs aient une chance égale de sentir qu'ils sont exactement là où ils doivent être.[/vc_column_text][/vc_column][/vc_row]CDI
Bruyères-le-Châtel (91)
Publié il y a 3 ans
À PROPOS D'ATOS
[/vc_column_text]Atos est un leader international de la transformation digitale avec 110 000 collaborateurs dans 73 pays et un chiffre d’affaires annuel de 12 milliards d’euros. Numéro un européen du Cloud, de la cybersécurité et des supercalculateurs, le Groupe fournit des solutions intégrées de Cloud Hybride Orchestré, Big Data, Applications Métiers et Environnement de Travail Connecté. Partenaire informatique mondial des Jeux Olympiques et Paralympiques, le Groupe exerce ses activités sous les marques Atos, Atos|Syntel, et Unify. Atos est une SE (Société Européenne) cotée sur Euronext Paris et fait partie de l’indice CAC 40. La raison d’être d’Atos est de contribuer à façonner l’espace informationnel. Avec ses compétences et ses services, le Groupe supporte le développement de la connaissance, de l’éducation et de la recherche dans une approche pluriculturelle et contribue au développement de l’excellence scientifique et technologique. Partout dans le monde, Atos permet à ses clients et à ses collaborateurs, et plus généralement au plus grand nombre, de vivre, travailler et progresser durablement et en toute confiance dans l’espace informationnel. Atos est le leader européen du High Performance Computing et délivre des solutions de Calcul Haute Performance parmi les plus performantes au monde afin de résoudre les problèmes scientifiques les plus complexes d’aujourd’hui et de demain. Au sein d’une équipe d’experts HPC nous recrutons des Ingénieurs Système Linux & Réseau pour assurer le support et l’administration de clusters HPC de classe mondial (Classement au « Top 500 »). Notre équipe est basée en Essone sur le site Ter@tec de Bruyères-le-Châtel.[/vc_column_text][/vc_column][/vc_row]VOS MISSIONS
[/vc_column_text][/vc_column][/vc_row]VOTRE PROFIL
[/vc_column_text]De formation supérieure bac + 5 en informatique systèmes et réseaux type école d'ingénieur ou cursus universitaire équivalent, vous justifiez d’une expérience de 3 ans minimum en administration de système HPC Linux. Vous maitrisez tout ou partie des environnements/technologies suivants : - Administration de systèmes GNU/Linux HPC (Redhat, CentOS ou autres) - Réseaux : InterConnect, Infiniband, Ethernet - Scripting : shell, python, perl - Monitoring Nagios Idéalement vous connaissez les technologies DevOps & Cloud type OpenStack, conteneurs (Docker, Kubernetes), orchestrateurs (Puppet, Ansible). Vous savez configurer/modifier les principaux services d'un système Linux : DNS, DHCP, WEB, FTP, authentification, gestion des déploiements La connaissances du File System Lustre et du fonctionnement des matériels de type commutateurs réseaux, serveurs X86, baies de disques : DDN SFA14K , CRAY ClusterStor est un plus. Qualités requises : - Engagement et passion - Esprit d'équipe et communiquant - Rigueur et pugnacité - Goût pour les nouvelles technologies - Dynamisme et autonomie - Force de proposition Anglais professionnel, Français courant Important : Ce poste est exercé dans un environnement classifié, demandant une habilitation de niveau Secret Défense. Chez Atos, nous voulons que nos employés se sentent valorisés, appréciés et libres d'être eux-mêmes au travail. Nos process RH sont conçus pour prévenir la discrimination envers l'identité ou l'orientation sexuelle, la religion, l’origine ethnique, l'âge, la neurodiversité, le handicap, la citoyenneté ou tout autre aspect qui rend nos collaborateurs uniques. Partout dans le monde, nous avons créé plusieurs programmes pour soutenir la culture inclusive d'Atos, et nous travaillons pour nous assurer que tous nos collaborateurs aient une chance égale de sentir qu'ils sont exactement là où ils doivent être.[/vc_column_text][/vc_column][/vc_row]À PROPOS D'ATOS
[/vc_column_text]Atos est un leader international de la transformation digitale avec 110 000 collaborateurs dans 73 pays et un chiffre d’affaires annuel de 12 milliards d’euros. Numéro un européen du Cloud, de la cybersécurité et des supercalculateurs, le Groupe fournit des solutions intégrées de Cloud Hybride Orchestré, Big Data, Applications Métiers et Environnement de Travail Connecté. Partenaire informatique mondial des Jeux Olympiques et Paralympiques, le Groupe exerce ses activités sous les marques Atos, Atos|Syntel, et Unify. Atos est une SE (Société Européenne) cotée sur Euronext Paris et fait partie de l’indice CAC 40. La raison d’être d’Atos est de contribuer à façonner l’espace informationnel. Avec ses compétences et ses services, le Groupe supporte le développement de la connaissance, de l’éducation et de la recherche dans une approche pluriculturelle et contribue au développement de l’excellence scientifique et technologique. Partout dans le monde, Atos permet à ses clients et à ses collaborateurs, et plus généralement au plus grand nombre, de vivre, travailler et progresser durablement et en toute confiance dans l’espace informationnel. Atos est responsable de la définition, de la conception et de la construction de plateformes et de solutions sécurisées Big Data. Vous interviendrez au sein d’une équipe dynamique d’expertise Big Data en forte croissance réalisant des activités allant du conseil en architecture et gouvernance de la donnée aux aspects Data Ingestion, Data Analytiques et DataScience / IA , en passant par la mise en place, l’intégration, le développement et l’optimisation de solutions Big Data pour les projets stratégiques de nos clients. Notre valeur ajoutée repose sur une forte expertise technique et business de la data renforcée par de nombreux partenariats avec les éditeurs actifs dans les domaines des architectures applicatives distribuées et du Big Data & Analytics.[/vc_column_text][/vc_column][/vc_row]VOS MISSIONS
[/vc_column_text]Dans le cadre de notre croissance et pour répondre aux nouveaux besoins de nos clients, nous recherchons à étoffer nos équipes Big Data en recrutant un(e) Data Engineer Expérimenté. Au sein de notre équipe, vous interviendrez au sein des projets que nous réalisons pour nos clients et mettez en œuvre les compétences suivantes :- Expertise en développement Python ou Java Spring Boot
- Expertise sur un des framework suivants : Spark, Kafka Connect & Streams, Apache Beam, …
- Connaissance des écosystèmes Data (NoSQL/DW/Hadoop) : ELK (ElasticSearch, Logstash, Kibana) , MongoDB, Cassandra, Redis, CouchBase, Teradata, SnowFlake, BigQuery, Redshift, Hive, Impala, Object storage, HDFS, …
- La connaissance des services managés BigData de Google Cloud Platform (Dataflow, BigQuery, Pub/Sub, ML Engine,…) est appréciée
- La connaissance des approches Agile & DevOps est appréciée
À PROPOS D'ATOS
[/vc_column_text]Atos est un leader international de la transformation digitale avec 110 000 collaborateurs dans 73 pays et un chiffre d’affaires annuel de 12 milliards d’euros. Numéro un européen du Cloud, de la cybersécurité et des supercalculateurs, le Groupe fournit des solutions intégrées de Cloud Hybride Orchestré, Big Data, Applications Métiers et Environnement de Travail Connecté. Partenaire informatique mondial des Jeux Olympiques et Paralympiques, le Groupe exerce ses activités sous les marques Atos, Atos|Syntel, et Unify. Atos est une SE (Société Européenne) cotée sur Euronext Paris et fait partie de l’indice CAC 40. Atos est responsable de la définition, de la conception et de la construction de plateformes et de solutions sécurisées Big Data. Vous interviendrez au sein d’une équipe dynamique d’expertise Big Data en forte croissance réalisant des activités allant du conseil en architecture et gouvernance de la donnée aux aspects Data Ingestion, Data Analytiques et DataScience / IA , en passant par la mise en place, l’intégration, le développement et l’optimisation de solutions Big Data pour les projets stratégiques de nos clients. Notre valeur ajoutée repose sur une forte expertise technique et business de la data renforcée par de nombreux partenariats avec les éditeurs actifs dans les domaines des architectures applicatives distribuées et du Big Data & Analytics.[/vc_column_text][/vc_column][/vc_row]DESCRIPTION DU POSTE
[/vc_column_text] Dans le cadre de notre croissance et pour répondre aux nouveaux besoins de nos clients, nous recherchons à étoffer nos équipes Big Data en recrutant un(e) Data Engineer Expérimenté. Au sein de notre équipe, vous interviendrez au sein des projets que nous réalisons pour nos clients et mettez en œuvre les compétences suivantes :- Expertise en développement Python ou Java Spring Boot
- Expertise sur un des framework suivants : Spark, Kafka Connect & Streams, Apache Beam, …
- Connaissance des écosystèmes Data (NoSQL/DW/Hadoop) : ELK (ElasticSearch, Logstash, Kibana) , MongoDB, Cassandra, Redis, CouchBase, Teradata, SnowFlake, BigQuery, Redshift, Hive, Impala, Object storage, HDFS, …
- La connaissance des services managés BigData de Google Cloud Platform (Dataflow, BigQuery, Pub/Sub, ML Engine,…) est appréciée
- La connaissance des approches Agile & DevOps est appréciée
RENAULT propose un stage de fin d’étude spécialisé en mathématiques appliquées pour rejoindre une équipe dédiée à la réduction de gros modèles éléments finis de crash.
QUALIFICATIONS
- Vous êtes ingénieur généraliste et vous pratiquez la simulation numérique (éléments finis)
- Vous vous spécialisez en mathématiques appliquées et informatique (programmation en python)
- Vous vous intéressez aux analyses statistiques sur de gros volumes de données, issues de simulation numériques sur le véhicule
- Vous souhaitez travailler sur des sujets à la pointe de la technologie en matière de simulation / modélisation
- Vous vous intéressez à la programmation et l’algorithmique pour obtenir un résultat concret, vous acceptez de suivre des standards de développement
ENCORE MIEUX SI VOUS CONNAISSEZ
- Linux sur HPC, le langage GO, les outils de Deep Learning TensorFlow, Keras…
- TDA (Topological Data Analysis)
- La programmation parallèle en python et / ou GO
- Les méthodes mathématiques de réduction de modèle 3D
CE QUE NOUS UTILISONS
- Docker, Python, GO
- Un HPC miniature (28 cœurs) par personne
- Le HPC dans le cloud
- Les moyens HPC de GENCI
- Les outils de simulation numériques standard chez RENAULT (PAM-CRASH, ANSA, METAPOST…)
VOTRE ENVIRONNEMENT DE TRAVAIL
- Vous travaillerez dans une équipe de recherche comprenant des ingénieurs et quatre thèses CIFRE sur la réduction de modèle
- L’équipe est également en relation avec un éditeur de logiciels pour l’industrialisation et un laboratoire parisien dans le cadre d’un consortium de recherche, vous pourrez participer / contribuer à ces sujets
QUELQUES DÉTAILS SUR LE SUJET
RENAULT utilise un processus de conception numérique, basé sur des simulations éléments finis pour la caisse des véhicules. Dans ce cadre, les équipes de développement réalisent des études d’optimisation pour proposer des compromis entre la masse (coût matière, dynamique véhicule, émissions de CO2), les performances (crash, aérodynamique, endurance, acoustique…) et le coût aux projets véhicules et moteurs en cours. Ces études peuvent être longues et coûteuses, car les simulations sont elles-mêmes longues (10h sur HPC pour un crash frontal par exemple). La volonté de réaliser plus d’études plus vite motive le développement de méthodes de réduction de modèle. Ces travaux sont engagés depuis plusieurs années et RENAULT dispose d’une méthode propre, adaptée aux codes de crash et NVH essentiellement. L’objet du stage est de contribuer à l’amélioration de la méthode en programmant de nouveaux modules. La méthode développée pour le crash et l’acoustique mixe des techniques existantes comme EIM (Empirical Interpolation Method) et des outils de machine learning comme Random Forest. Cela donne de très gros modèles de régression non linéaires : millions d’observations et milliers de variables explicatives. L’objectif du stage est d’améliorer l’outil existant :- Remplacer Random Forest par un réseau de neurones, pour gérer l’occupation mémoire, permettre d’exploiter plus de données et préparer l’usage intensif des machines hybrides CPU/GPU sur HPC
- Générer de nouvelles variables explicatives (features dans le langage de la communauté du machine learning)
- via la TDA (Topological Data Analysis)
- en exploitant la connectivité du maillage pour construire des voisins d’un individu statistique dans le temps et / ou l’espace
- Améliorer la parallélisation de certains modules de pré et post-traitement, par exemple le module de prédiction
- …
DESCRIPTION DE L'ENTREPRISE
Groupe RENAULT conçoit, produit et commercialise des véhicules pour particuliers et des utilitaires légers, sous les marques RENAULT, DACIA, ALPINE, LADA, RSM. Le principal site de recherche et développement est le TECHNOCENTRE, situé à Guyancourt (78). Le stage sera basé à Guyancourt.POSTULER
[/vc_column_text][/vc_column][/vc_row]Contacter YVES TOURBIER [/vc_cta][/vc_column][/vc_row]
À PROPOS DE LA MAIF
[/vc_column_text][/vc_column][/vc_row]DESCRIPTION DU POSTE
[/vc_column_text]
Afin de répondre aux enjeux croissants de la valorisation et l’exploitation de la Donnée, la Data Factory de la Maif a décidé de renforcer ses capacités internes en termes de Data Science sur les aspects de scoring.
Au sein de la Datafactory et en relation avec le Datalab, rattaché(e) à l’entité « Décisionnel », et intégré(e) au sein d’une E.R.S. (Equipe Responsable et Solidaire) :
[/vc_column_text][/vc_column][/vc_row]
- Vous prenez en charge des XP / projets / Uses Cases métiers autour des problématiques de scoring.
- Vous proposez un cadrage des projets et les solutions techniques associées.
- Vous prenez en charge la partie réalisation, de la phase exploratoire jusqu'à l'industrialisation.
- Vous êtes à l'écoute et interagissez directement avec les métiers, les autres Data Scientist de l'entreprise, les experts fonctionnels et techniques de la donnée.
- Tout au long de vos développements, vous avez le souci de l'optimisation de vos codes et de leur passage à l'échelle.
- Vous prenez une part active à l'industrialisation des scores, qu'elle soit en mode batch ou API.
- Vous proposez, concevez et réalisez des briques génériques sur les aspects d'explicabilité / features engineering / Monitoring / ... transposables aux différents Usecases Scoring
- Vous prenez part aux travaux de veille méthode et technologique.
- Vous partagez l'ensemble de vos travaux avec les équipes data et notamment au sein de la communauté Data Science.
PROFIL
[/vc_column_text]Diplômé(e) d'un Bac+5 en école d’ingénieur ou équivalent universitaire :- Vous justifiez d’une expérience de 3 ans minimum en data science sur des sujets de scoring ainsi que d'une solide expérience en Data Science de 3 ans minimum
- Vous avez déjà mis en production des modèles et une expérience sur l'"API"sation de vos modèles serait un plus.
- Idéalement, vous avez participé à des concours type kaggle ou meilleur Data Scientist de France. Vous maîtrisez l'anglais. Vous êtes sensible aux aspects d'ordre éthique et de protection des données.
- Outils Techniques : Languages : Python (Pandas, Sklearn,...), PySpark, SQL, vos connaissances en R seraient un réel plus. Algo & Techniques: Machine Learning (notamment classification Xgboost, Catboost, LightGBM,... ), idéalement Deep Learning, NLP Connaissance de Hadoop & Spark
- Soft Skills: - Autonomie - Organisation - Curiosité - Bonne pédagogie / Capacité de synthèse
Référence
2020-312[/vc_column_text][/vc_column][/vc_row]À PROPOS DE LA MAIF
[/vc_column_text][/vc_column][/vc_row]DESCRIPTION DU POSTE
[/vc_column_text]
Afin de répondre aux enjeux croissants de la valorisation et de l’exploitation de la Donnée, la Data Factory recherche un Expert (h/f) des solutions de Data Visualisation. Si vous êtes passionné(e) par la BI traditionnelle et le Big Data, si vous êtes curieux(se) des nouvelles technologies et vous souhaitez travailler « à la mise en scène des données », venez nous rejoindre !
Rattaché(e) à l’entité « Construction des Solutions Métiers Décisionnelles », vous intégrez l’ERS Socle Technique (Equipe Responsable et Solidaire), un collectif d'une vingtaine d’experts en Décisionnel et Big Data.
Au sein de cette équipe, vous êtes chargé(e) d’assurer l’expertise sur les produits de DataVisualisation utilisés dans l’entreprise (Business Objects, SpotFire) et d’accompagner les utilisateurs dans leurs usages.
Vos activités principales sont :
- D’assurer le support et l’assistance auprès des utilisateurs
- D’administrer les plateformes et mettre en œuvre la gestion de la sécurité de celle-ci
- D’assurer la veille technologique sur les outils de DataVisualisation. - Proposer des axes d’évolution ou des solutions pour améliorer les performances des outils relevant du champ d’expertise.
- De contribuer à l’animation des communautés autour de l’usage des outils
- De réaliser l’installation et les montées de version des logiciels
- De prendre en charge la résolution des incidents
Votre rôle d’Expert vous amènera à co-construire des applications avec les utilisateurs dans une dynamique de conduite de projet en méthode Agile.
Vous serez amené(e) à travailler en étroite collaboration avec l’ensemble des acteurs de la Data Factory et du Data Lab, les représentants des Directions Métiers, la Direction Informatique... Au sein de votre équipe, vous serez amené(e) à évoluer dans un cadre de travail résolument tourné vers l’agilité, l’expérience client (UX), la co-construction, l’autonomie et la responsabilisation
[/vc_column_text][/vc_column][/vc_row]