Ingénieur Big Data – Direction Innovation F/H

Dans un contexte technologique en pleine mutation, Lincoln a créé son Lab, 100% dédié à la data et aux solutions créatives et innovantes, en concentrant ses efforts sur les domaines de la Data Science, du Big Data et de l’Intelligence Artificielle. Descriptif du poste: Vous serez rattaché(e) à la Direction de l’Innovation et aurez pour missions : – Accompagnement à la mise en place de plateformes Big Data et de son écosystème (Hadoop, Hive, Spark, Java…) – Choix et mise en place des architectures logicielles adaptées à nos cas d’usage – Intégration des nouveaux flux de données issues de l’internet des objets (IoT) et des réseaux sociaux – Participation à l’industrialisation de prototypes R&D, préconisation d’évolution de l’architecture pour supporter la volumétrie cible, les utilisateurs… – Prise en compte des problématiques de sécurité – Veille technologique, POC, test de nouvelles solutions – Maintien en condition opérationnelle de nos outils de production (intranet, facturation , e-learning …) et de notre plateforme d’hébergement   Profil recherché : Issu(e) d’une école d’ingénieur ou d’un master II spécialisé en informatique, vous avez au moins 2 ans d’expérience confirmée en développement dans un environnement Big Data (gestion de grandes volumétries avec des contraintes de performance, modèle de données complexes). Vous êtes en mesure de nous apporter une vision en terme d’architecture technique et fonctionnelle. Vous détenez des compétences dans les technologies Big Data : Hadoop, Hive, Hbase, SPARK, Scala, Oozie, Elastic Search. La connaissance DevOps ou Kafka est un plus. Vous maîtrisez: – Un ou plusieurs de ces langages : Python, Java, Scala, Perl, C++, SQL – Linux, les protocoles réseau et les grands principes de sécurité – Un ou plusieurs systèmes de base de donnée relationnelles, Une appétence pour ces domaines serait fortement appréciée : – Les solutions de Machine Learning (Analytics, IA, Deep Learning…) – Le traitement de données en temps réel – Vous êtes en veille permanente sur les innovations technologiques   Rémunération : 40k€ à 45k€

Data Scientist

En Europe, plus de 200 milliards d’euros sont dépensés chaque année en promotion et remises.

Lucky Cart a créé la 1ère Promotion Management Platform pour permettre aux distributeurs et aux marques d’optimiser leurs investissements promotionnels. Ils sont ainsi aujourd’hui plus de 150 à profiter de nos solutions d’intelligence promotionnelle.

Chez Lucky Cart, depuis notre création en 2010, nous partageons une vision de l’entreprise simple : pas de plaisir sans réussite mais pas de réussite sans plaisir. Le bien être de nos employés est donc naturellement l’une de nos priorités. Certaines valeurs nous tiennent également particulièrement à coeur, comme l’engagement, l’esprit d’équipe, l’humilité, le respect et la convivialité. Arrêtez-vous là si vous ne les partagez pas !

La forte croissance que nous enregistrons et l’importance primordiale de la data pour Lucky Cart nous amènent à renforcer notre équipe technique en recrutant un(e) Data Scientist (H/F).

 

DESCRIPTIF DU POSTE

Rattaché(e) au Chief Data & Science Officer, vos travaux d’innovation et de recherche en data science,  recherche opérationnelle et économétrie permettront de faire évoluer les produits de Lucky Cart, d’évaluer au mieux leur performance et d’élargir la palette de services connexes.

Au cœur de la société, vous travaillerez au quotidien avec toutes les équipes impliquées (commercial, marketing et finance) pour mener à bien vos missions.

Vos recherches pourront faire l’objet de publications, de présentation dans des séminaires ou des meetups et de dépôts de brevet.

 

MISSIONS

  • Développer des modèles prédictifs répondant aux besoins business de la plateforme de management des promotions, sur des volumes de données très importants, en grande dimension, en mode batch puis quasi en temps réel,
  • Opérationnaliser ces modèles prédictifs dans des temps courts pour les campagnes promotionnelles des clients de Lucky Cart,
  • Participer à l’évaluation de la performance de ces modèles en termes scientifiques, business et système (disponibilité, performance, sécurité),
  • Participer à l’élaboration du plan d’innovation et au suivi de la planification des tâches,
  • Participer à la veille scientifique et au rayonnement de l’équipe.

 

COMPÉTENCES

  • Savoir poser et traiter un problème métier en s’appuyant sur les données et la recherche quantitative et savoir communiquer efficacement les résultats.
  • Maitriser la théorie et la pratique des concepts et des algorithmes de statistiques, de data science, de deep learning et d’optimisation en général (recherche opérationnelle notamment),
  • Maitriser au moins un langage couramment utilisé dans la communauté data scientist (Python, R, Scala) et les librairies utilisées en machine learning
  • Maîtriser SQL ou un SQL-like.
  • Être sensibilisé aux questions liées à la sécurité des données, la protection de la vie privée et à l’usage éthique des données,
  • Être constamment curieux des environnements business, techniques et scientifiques de Lucky Cart et savoir partager cette curiosité.

 

COMPÉTENCES SOUHAITABLES

  • Avoir effectué des recherches en lien avec le e-commerce ou la grande distribution,
  • Maitriser une ou plusieurs technologie(s) big data Spark notamment,
  • Être familier avec au moins une des problématique suivante : le traitement de volumes de données très importants, la gestion de modèle de grande dimension, ou le machine learning en temps réel,
  • Avoir une première expérience avec une ou plusieurs librairie de deep learning (pytorch ou tensorflow notamment),
  • Avoir des connaissances ou une expérience d’utilisation d’outils dans le Cloud (AWS par exemple),
  • Avoir participé à des compétitions de data science.

 

PROFIL

  • Bac +5 mini,
  • Grande Ecole d’ingénieur, Phd (CIFRE) ou Master Recherche,
  • Anglais courant,
  • 6 mois à 2 ans d’expérience mini en data science, idéalement chez l’un des acteurs suivants: Nielsen, Kantar, HighCo, Catalina…

 

LES PLUS

 

  • Un poste clé à très forte valeur ajoutée au cœur de la stratégie de développement de Lucky Cart,
  • Une ambiance de travail startup / scale-up, Work Hard / Play Hard,
  • Un encadrement complet (scientifique, business et interpersonnel) par des professionnels expérimentés,
  • De sérieuses perspectives d’évolution (encadrement, périmètre),
  • Une immersion dans le secteur le plus dynamique du moment : le e-commerce.

 

Salaire et variable attractifs selon profils.

Tickets restaurant et Mutuelle.

Participation au capital de la société sous conditions.

 

CV à envoyer à hr@luckycart.com

Pour plus d’informations : www.luckycart.com/fr/

 

RÉFÉRENT DATA SCIENCE H/F

La MAIF recherche pour sa Direction Systèmes d’Informations (DSI) un Référent Data Science H/F.   VOTRE MISSION : Intervenant au sein du Programme DATA & IA de la MAIF, votre mission vise à accroître la compréhension des domaines étudiés (sociétaires, gestion des flux,…) en travaillant en étroite collaboration avec les différentes Directions Métiers de la Mutuelle afin de rapprocher la MAIF de ses sociétaires/prospects en exploitant efficacement tous les gisements de données internes et externes les concernant. Prêt(e) à assister des équipes et des projets, vous cherchez à rejoindre une équipe pour travailler sur des sujets à forte composante quantitative dans des domaines variés (marketing analytique dans le domaine de la banque/assurance, le service, fraude etc.) ou techniques (création d’un nouveau système d’acquisition de données, accompagnement dans la mise en place d’une architecture Big Data, etc). Vous serez un des piliers de la Data à la MAIF dans la réalisation des plus grandes promesses du Big Data avec nos clients internes. Vos activités principales s’articulent autour de deux dominantes :

  • Constituer et étudier des ensembles de données (collecte, exploration et préparation) en lien avec les besoins métiers : Construire et appliquer les algorithmes de machine learning sur ces mêmes jeux de données et proposer des améliorations de ces mêmes algorithmes ; Restituer les résultats et formuler des recommandations auprès des Directions métiers ; Créer des tableaux de bords spécifiques et/ou implémenter des logiciels sur mesure analysant les données traitées ; Elaborer des modèles prédictifs afin d’anticiper l’évolution des données et tendances relatives à l’activité de l’entreprise.
  • Réaliser une veille technologique et assurer l’appropriation des outils par les équipiers sur le programme DATA & IA : Assurer une veille sur le plan technologique afin de proposer des éléments pertinents à la construction / ajustement de la trajectoire IA ; Etre un facteur clé de la montée en compétence du Groupe en matière de Data Science, notamment par une veille technologique active sur les sujets Big Data (ex : Intelligence Artificielle) ou sur les outils Spark (R, Python, Scala) ; Assurer une appropriation auprès des équipiers du programme DATA & IA sur ces sujets Big Data et sur les outils Spark ; Communiquer les résultats des expérimentations à la « communauté Datascience » de la MAIF ainsi qu’à la Direction Générale du Groupe ; Aider au partage des bonnes pratiques innovantes.

VOTRE EQUIPE : Votre rejoignez l’équipe Système d’Information Décisionnel de la Direction Appui aux Projet de la DSI constituée de 10 collaborateurs. Vous interviendrez dans le cadre du Programme Data & IA (environ 70 personnes) et serez amené(e) à travailler en étroite collaboration avec les représentants des Directions Métiers, la Direction Informatique et le responsable du DataLab. Vous serez amené(e) à travailler en équipe/mode projet dans un cadre de travail résolument tourné vers la co-construction et l’agilité. MAIF porte au quotidien la diversité et l’égalité des chances.   VOTRE PROFIL : Vous l’avez compris précédemment, vous n’êtes pas forcément cinéphile ! En revanche, vous avez suivi une formation Bac+5 avec une spécialité en Statistiques, Econométrie et/ou Mathématiques Appliquées et vous êtes fier d’une expérience réussie dans l’utilisation des outils de préparation et d’analyse de la donnée tels que Scala, Python, R, Hive, Haddoop mais aussi des méthodes de machine learning ainsi que des solutions Open Source : notebook, tensorflow, scikitlearn, …. La proximité avec les équipes techniques, fonctionnelles et les représentants métiers nécessite également d’être en capacité d’accompagner, communiquer et conseiller efficacement vos collègues. Votre posture d’écoute, votre curiosité et votre goût du challenge seront donc particulièrement appréciés. Une connaissance du monde de l’assurance et des services, une activité dans l’univers de l’Open Source, la maîtrise de l’exploitation des données externes et des données IOT (automobile, maison, …) ainsi que la maîtrise des algorithmes d’apprentissage profond (Deep Learning) seraient des atouts au regard des domaines traités.

Ingenieur Big Data

L’entreprise :

Créée en 2000, l’agence Ciblo, c’est 25 experts du e-commerce reconnus par le secteur :
• Accréditations Google Partners
• Obtention du label « Oséo Anvar »
• Publications clés sur le « Référencement » et le « Web 2.0 »
• Créateur et organisateur des palmes e-commerce avec la CCI de Paris
Notre taille nous confère une réactivité et une flexibilité particulièrement appréciées par nos clients.
Cela nous permet également de nous adapter rapidement aux évolutions constantes du marché et des outils.
Depuis 3 ans, l’entreprise a axé sa stratégie commerciale autour de la commercialisation de notre plateforme Spectro Commerce. Cette plateforme innovante qui permet aux e-commerçants de piloter efficacement leur activité est née de l’alliance de nos différentes expertises (SEA, SEO, Webdesign, Développement web, Data Science…) et de nos nombreuses années d‘expérience dans la vente en ligne.

Les missions :

L’innovation fait partie de l’ADN de l’agence. Nous avons su au fil des années nous réinventer et adapter nos prestations afin de conserver notre expertise sur nos différents métiers et de répondre aux attentes toujours plus grandes de nos clients.

Pour soutenir l’innovation, nous avons récemment créé un lab innovation afin de tester la création de nouvelles fonctionnalités reposant sur les technologies de pointe dans le domaine du Big Data et de la data science.

Sous la responsabilité du Product Owner, vous travaillerez en collaboration avec un Data scientist et serez responsable du développement de nouvelles fonctionnalités.

En fonction des problématiques, vous serez amené à travailler sur des domaines variés :

  • Traitement du langage naturel afin de créer un chatbot ou encore relier la plateforme à Amazon Echo
  • Analytics en temps réel (Kafka, Spark Streaming…)
  • Recommandations et personnalisation sur les sites e-commerce
  • Prédiction des actions des clients et visiteurs

Vous serez accueilli(e) au sein d’une équipe jeune et dynamique en open-space.

Plus en détail, vous aurez pour missions :

  • Conception de l’architecture
  • Mise en place et configuration des outils
  • Gestion et orchestration des données
  • Implémentation des algorithmes
  • Optimisation des performances des algorithmes de machine learning

Le profil :

Étudiant suivant une formation auprès d’une École Ingénierie Informatique avec une spécialisation dans le Big Data
Passionné et force de proposition
Compétences solides en mathématiques et statistiques
Bonne maîtrise de Java/Scala ou Python
Une première expérience avec Kafka et Spark Streaming serait un plus
Une première expérience dans la création de chatbot serait un plus

Les plus de l’offre :
Poste en R&D
Utilisation de technologies innovantes
Possibilité d’adapter les missions en fonction des compétences et des affinités du candidat (NLP/analytics en temps réel/ prédiction etc.)
L’entreprise vous laisse une réelle autonomie et est l’écoute de vos idées

Software Data Engineer H/F

Nous rejoindre c’est :

  • Prendre part à un challenge technique autour du Machine Learning et des technologies Big Data sur des problématiques de temps réel.
  • Travailler sur un sujet stratégique dans la sécurité et la fraude bancaire.
  • Intégrer une équipe dynamique fonctionnant en mode lean startup et aimant partager leurs expériences et connaissances.
  • Rejoindre une nouvelle Business Unit (BU) au sein d’une société référente dans le domaine de la sécurité des données et des communications.

Vos missions consisteraient à :

  • Participer à la conception des nouveaux produits de la BU Analytics
  • Analyser les besoins technologiques de nouveaux use cases
  • Proposer des choix technologiques en collaborant avec l’Architecte Big Data
  • Développer sous des technologies Big Data (Scala, Spark, Kafka…)
  • Contribuer à l’amélioration des processus, pratiques, techniques et technologies utilisées
  • Représenter et soutenir les choix techniques d’ERCOM vis-à-vis de clients ou prospects, et intervenir auprès du Product Manager et des forces de vente à divers stades.

Expériences professionnelles demandées :

  • Une ou plusieurs expériences sur la mise en place d’architectures Big Data sur des thèmes de traitements analytiques de données à grande ampleur, de préférence avec des aspects de temps réel et traitements de données en flux.
  • Une expérience en position de conseil (interne ou externe) ou en cellule transverse serait appréciée.
  • Maîtriser les outils et pratiques de développement logiciel agile.

Informations complémentaires :

  • Lieu : Vélizy ou Marseille (prévoir déplacements ponctuels)
  • Formation : Bac+5 Ecole d’ingénieurs ou université
  • Niveau d’expérience : minimum 3 ans
  • Discrétion et confidentialité requises

Mieux nous connaitre :

Depuis plus de 30 ans, ERCOM est un acteur français de référence dans la cybersécurité et les réseaux de communication. Forte de cette expertise dans la sécurité des données et leur traitement en temps réel, Ercom a créée fin 2016 sa Business Unit Analytics, afin d’adresser de nouveaux marchés B2B. Sous un format startup interne, cette nouvelle BU développe des produits logiciels très largement inspirés par les innovations technologiques récentes en data science et machine learning.

Data Scientist

Fondée en janvier 2014, happn est la première application de rencontre 100% mobile, géolocalisée et en temps réel qui permet de retrouver les personnes croisées dans la vraie vie.

happn, c’est une équipe de 70 personnes et une croissance qui donne le vertige. Lancé dans les plus grandes villes du monde : Paris, Londres, New-York, Miami, Hong-Kong, Sao Paulo, Rio, Istanbul, Moscou…, happn compte aujourd’hui plus de 19 millions de membres.

Vous avez envie de rejoindre une équipe jeune et dynamique dans une ambiance sympa ? Envie de travailler dans une startup à fort potentiel ? Qu’attendons-nous pour nous croiser ?

Le poste

Au sein de l’équipe Data (10 personnes), au cœur du réacteur de la société, vous participerez activement à l’analyse des données collectées pour suivre les indicateurs business clés et fournir des recommandations sur l’optimisation de l’application : acquisition de nouveaux clients, rétention, monétisation et stratégies de développement (fonctionnalités, pays).
Vos contributions peuvent prendre les formes suivantes (liste non exhaustive) :
  • Développement des algorithmes dans le but d’analyser et de classifier les données, et fournir des recommandations stratégiques et prédictives (régression, clustering, ranking, etc.)
  • Design et développement de solutions d’analyses prédictives et de data mining
  • Valorisation d’analyses par des visualisations

Votre profil

  • De formation supérieure, type grande école d’ingénieur ou d’un Master 2 spécialisé en data science
  • 1/3 ans d’expérience en data science et machine learning
  • Solide connaissance en statistiques et probabilités
  • Maîtrise du SQL et de l’un des langages programmatiques suivant : R, Python, Scala
  • Rigoureux(se), avec un excellent sens du service, un bon relationnel, et passionné(e) par les technologies innovantes et le traitement de données
  • Anglais courant obligatoire

Vos plus

  • Connaissance de l’écosystème Hadoop
  • Première expérience dans le monde du mobile

Nos plus

  • Un environnement de start’up en pleine croissance avec de l’ambition, de nombreux projets et des moyens adéquats.
  • Des locaux en plein cœur de Paris (Sentier/Bonne Nouvelle) avec table de ping-pong, baby-foot et panier de basket.
  • Si vous êtes célibataire, les crédits sont offerts dans l’application.
  • Salaire sur profil.

Data Scientist

Fondé en 1989, le Groupe Eurogiciel est présent au niveau national (9 agences) et international (Royaume-Uni, Belgique, Allemagne, Espagne, Canada et Etats-Unis). Avec un effectif de 1000 personnes, le Groupe intervient sur des projets d’envergure et offre à ses collaborateurs de fortes potentialités d’évolution au sein de ses filiales :

• EUROGICIEL Ingénierie, Ingénierie des Systèmes et du Logiciel

• ETOP International, Conseil en Management de Projet complexes

• EQUERT International, Conseil en Management de la Qualité et Performance Industrielle

• ETIQ, la marque du Groupe pour ses activités à l’International

Au sein d’EUROGICIEL Ingénierie, la division Big Data est dédiée aux activités et missions nécessitant la mise en œuvre de modèles complexes dans un environnement 3V (Volume, Vélocité, Variété des données) pour accompagner nos clients dans leurs problématiques de valorisation de données. Présent dans les domaines de l’industrie (aéronautique, espace), de la banque, de l’assurance, de la santé, des télécoms mais aussi les transports et l’e-commerce, la division appuie sa maitrise sur les technologies du Big Data pour déployer ses activités de conseils.

Pour participer à cette aventure et vous épanouir dans une équipe Produits, intégrez Eurogiciel en tant que Data Scientist,   Votre quotidien:

• Tester les hypothèses de manière iterative et converger vers une solution

• Tirer profit des algorithmes Machine Learning pour vous aider dans vos investigations

• Explorer visuellement et  détecter des patterns dans les données

• Documenter vos réflexions et publier vos découvertes.

Vos champs d’intervention pourront concerner les problématiques suivantes :

• Mise au point, développement  et expérimentation d’algorithmes d’apprentissage performants et scalables

• Data Mining et statistiques : élaboration de modèles explicatifs et prédictifs d’aide à la décision (ingénierie statistique, économétrie, prévision, diagnostic quantitatif, …)

• Traitement de données  massives, non structurées et time-series

• Expérimentation des algorithmes avec des technologies Spark, Hadoop et bases de données nosql

Compétences et expérience souhaitées : Vous avez une formation de haut niveau (PhD / Ecole d’Ingénieur / BAC+5) dans le domaine du traitement de l’information, de l’ingénierie statistique et de l’économétrie et vous justifiez idéalement d’une première expérience en Big Data ou Data Science, de préférence dans un contexte industriel. Vous avez un excellent niveau en statistiques et analyse quantitative.

Vous maitrisez la programmation en python, R ou compilés (Java, Scala, C++) et avez une expérience dans les environnements UNIX/LINUX Vous souhaitez vous impliquer et prendre rapidement des responsabilités sur des missions à forte valeur ajoutée au sein d’une structure dynamique.

Mobile, vous êtes doté(e) d’une ouverture d’esprit et d’une capacité à travailler en équipe et vous souhaitez rejoindre un environnement professionnel motivant où vous partagerez les valeurs que sont la culture du résultat, la qualité et la satisfaction client.

Anglais professionnel indispensable, poste à pourvoir à Bordeaux, Paris, Nantes ou Toulouse

Ingénieur-chercheur en analyse de données

ENVIRONNEMENT SCIENTIFIQUE

Au sein de CEA Tech, direction de la recherche technologique du CEA, l’institut CEA LIST (site web) focalise ses recherches sur les systèmes numériques intelligents. Dans cet institut, le laboratoire a pour mission de développer des algorithmes de traitement de données (séries temporelles, spectres, données) et d’aide à la décision par des systèmes expert ou des techniques d’intelligences distribuées. L’équipe participe à de nombreux projets (contrats industriels, projets collaboratifs) dans le domaine de l’analyse de données et la force du laboratoire repose sur sa capacité à utiliser ou développer les algorithmes adaptés à l’application cible et de capitaliser son savoir-faire dans des plateformes. L’équipe est constituée de 30 ingénieurs chercheurs permanents, 10 doctorants et 10 CDD/post doctorants. L’équipe a un ancrage scientifique fort avec ses publications, ses collaborations avec des universités et une collaboration directe avec plus de dix partenaires industriels dans le cadre de contrats de R&D.

MISSIONS ET RESPONSABILITES

En particulier, le laboratoire développe une plateforme d’analyse de données séquentielles (stream processing, Complex Event Processing) et une plateforme d’analyse de données massives. Le laboratoire souhaite renforcer l’équipe avec un ingénieur-chercheur en datascience. Les missions de ce poste seront dans un premier temps de participer aux développements et à l’évaluation des méthodes dans le cadre de projets industriels et de contribuer à l’enrichissement des plateformes de l’équipe. A terme, les responsabilités seront élargies par des activités de gestion de projet ou d’encadrement de CDD-postdoc-doctorants ou de montage des projets industriels ou collaboratifs. Le domaine d’application des développements sera dans un premier temps l’analyse de signaux de systèmes industriels ou énergétiques. Le secteur applicatif pourra évoluer en fonction des besoins de l’équipe.

=================================================================

Profil du candidat

Le poste s’adresse à un(e) spécialiste en analyse de données (datascience), de formation Master 2 ou thèse en mathématiques appliquées, statistiques, informatique, machine learning.

COMPETENCES EXIGEES

  • Expérience significative de la mise en oeuvre d’algorithmes d’analyse de données d’apprentissage supervisées (SVM, RVM, régression, réseaux de neurones classiques ou profonds, modèle de Markov…) ou non-supervisées (clustering, méthodes de projection et visualisation…)
  • Excellente connaissance d’au moins un langage de prototypage scientifique rapide (Python, R, matlab, julia)
  • Maîtrise d’au moins un langage parmi java, scala et C++
  • Expérience sur la manipulation des données réelles

COMPETENCES APPRECIEES (NON INDISPENSABLES)

  • Expérience professionnelle entre 1 et 5 ans en contexte appliqué (thèse ou startup ou industrie)
  • Expérience sur de l’analyse de séries chronologiques (signaux) et/ou de données massives
  • Expérience en développement informatique

QUALITES HUMAINES

  • Afin d’interagir facilement en interne de l’équipe et avec les partenaires industriels et pour veiller à l’adéquation des développements et des attentes du client, il est important que la personne ait un excellent sens de l’écoute et du contact, un sens de la rigueur et de l’organisation, une bonne culture scientifique générale et démontre un fort intérêt pour la mise en oeuvre pratique des développements réalisés.
  • Le/la candidat(e) devra faire preuve d’adaptabilité au contexte par exemple au niveau technique il saura utiliser des algorithmes existants ou développera des nouvelles solutions pertinentes.

 

Développeur Big Data

Leader mondial de l’assurance et de la gestion d’actifs, AXA aide ses 100 millions de clients à traverser les petites et grandes difficultés de la vie et les accompagne dans la sécurisation de leurs projets. Pour aider ses collaborateurs dans leur mission, AXA se donne comme priorité de prendre soin d’eux.

Ainsi, en rejoignant AXA France vous travaillerez dans une entreprise responsable, offrant une véritable culture d’expertise, accélérant le développement des compétences de chacun, proposant une rémunération attractive et une évolution régulière. Pour vous, nous réinventons notre métier.

L’équipe Big Data, sous la supervision de la DSI et de la Direction Marketing, Service, et Digital Sa mission : de transformer AXA France en une société qui place la donnée, de façon proactive, au cœur de ses préoccupations business (produits, services, outils…).

Cette équipe a pour vocation d’accroître notre connaissance collective des données, qu’elles soient internes ou externes, afin d’en retirer le maximum de valeur ajoutée.

L’équipe Big Data est amenée à se renforcer fortement dans les prochaines années, en attirant des profils ayant un haut niveau dans les domaines de la data science, de l’architecture Big Data, du data management, du prototypage et de la R&D.

Missions principales

Le Développeur Big Data a pour missions principales :

1. de développer les outils qui permettent de passer de la donnée brute à de la donnée propre, exposée sous forme de tables requetables dans le datalake (inférer les schémas de données, nettoyer et normaliser les données, publier les données)

2. d’instancier ces outils en production afin d’intégrer de façon continue les nouvelles données qui arrivent dans le datalake

3. de travailler avec les data scientists sur la création de librairies de fonctions et de features communément utilisées et permettant d’accélérer les cycles de développement de l’équipe

4. de mettre en place et de garantir le respect dans la durée d’un processus qualité sur l’ensemble du cycle de DEV (documentation, tests unitaires, pair programming, commentaires, versionning, etc.)

Finalités – Résultats attendus

Un code de qualité permettant le traitement des données brutes jusqu’aux données transformées et publiées

Un raccourcissement des cycles de développements des projets Big Data par la mise à disposition de librairies de fonctions réutilisables.

Une réactivité en cas de problème détécté en fonctionnement.

Compétences requises

Compétences techniques :

A minima : Java, Linux, connaissance de Python

Dans l’ideal : Spark, Scala, Hive, Pïg, Impala, Oozie…

Industrialisation d’un cycle de développement, gestion de configuration, contrôle qualité ET  capacité à le formaliser

Bonne connaissance des systèmes d’information, idéalement dans le domaine Bancassurance

Bonnes connaissance des bases de données relationnelles & No SQL (Mongo DB, CouchDB, Elastic Search)

Capacité à travailler en mode agile

Compétences relationnelles :

Travail en équipe : Capacité à travailler en équipe et en mode projet, agile ou non (avec des data scientists, chef de projet, Axa Tech, DIL)

Organisation, rigueur dans l’exécution

Appétence à travailler dans un environnement complexe et à prendre de la hauteur sur les sujets

Autonomie, curiosité intellectuelle, goût prononcé pour l’innovation.

 

Senior Data Scientist

Description de l’entreprise

AOL has acquired​ the Paris-based company AlephD, global leader in publisher analytics and dynamic price floor optimization. AlephD will be a critical part of ONE by AOL: Publishers, dramatically enhancing the ability to understand, control and optimize pricing and packaging of inventory and drive greater revenue in an increasingly complex ecosystem.

AlephD is the leading programmatic data company and helps publishers increase ad revenues. As an industry pioneer, AlephD provides proprietary algorithms that run on all impressions sold on programmatic exchanges to maximize revenue and fill rate. The end result is the guarantee to maximize value from all demand sources. AlephD was founded in Paris in 2012 by a unique mix of experienced industry leaders and data gurus. It is backed by international VC firms. AlephD is growing fast in the USthat drives most of the revenue.

Description de l’emploi

To stay at the forefront of innovation, AlephD is growing its data-science team.  If you are a skilled data-scientist with strong mathematical background and a taste for implementing new ideas to solve real-life problems, join our team and help build great real-time, online-learning and big data solutions.

We are looking for professionals that enjoy working in a fast-paced environment where quantum physics nerds, functional programming geeks and visionary business guys design the future of ad-tech.

  • You will work in the R&D team in close collaboration with the IT team and the product guys to build awesome real-time + big-data algos to power AlephD products.
  • You will be in charge of the follow-up and evaluation of existing algos and propose improvements and new approaches.
  • You will provide expertise and technical leadership in mathematical modelling, statistics, machine-learning and algorithm design for big-data or real-time processing.
  • You will take part in the design of new algos.
  • You will contribute to the toolset of the team, building machine learning libraries, coding or testing frameworks.
  • You will take part in the design of some data-viz aspects of our products.
  • You will help foster a culture of best practice in data-science.
  • You will participate to the scientific communication efforts of AlephD.
  • According to your taste you will manage some development projects.

Qualifications

  • You have a MS degree or PhD from a top-notch institution in a field such as Computer Science, Mathematics, Physics, Statistics, quantitative Economics or Finance; or you have a track record proving similar skills.
  • You have commercial professional experience in data-science ideally using Hadoop or Spark.
  • You have a strong taste for statistical modelling and data analysis.
  • You have good expression skills and can expose complex technical problems with ease.
  • You have some experience coding in 2 of the following languages: Java, Python, C/C++, Scala, R, in a Unix-like environment.
  • You speak English and ideally also French.
  • You are eligible to work in France.

Informations complémentaires

We pride ourselves in building exceptional career opportunities and offering outstanding benefits to our team. We know our expectations are high so in return we offer a very competitive salary and great benefits for a very simple reason: attract the best people and allow them to focus on being great. Fun is important to us too. We’ve worked hard to create an environment that is as fun and social as it is professional and focused. We have the enthusiasm of a start-up, the stability of a public company, and a culture driven by employees excited to challenge the status quo.