Data Scientist

Chez Realytics, l’ambition est scandée, telle un cri de guerre : tirer le plus de valeur de la télévision ! Comment ? En permettant à ses clients, annonceurs et agences, de mesurer l’impact direct et indirect d’une publicité TV sur leurs supports digitaux (site web, application mobile, call centers). En plus de cela, Realytics leur fournit les données nécessaires afin d’optimiser leurs plans médias selon leurs KPIs business ou branding.

La start-up s’est imposée comme leader sur son marché en Europe grâce à 3 innovations majeures : Predict Impact, Brand Effect et Digital Follow-up. La 1ère anticipe les performances drive to web d’un plan média quand la 2ème analyse l’impact d’une campagne TV sur la notoriété d’une marque et la 3ème identifie les visiteurs web issus d’un spot TV pour exploiter pleinement la convergence entre TV et digital au travers de scénarios cross-medias inédits.

Le data scientist est responsable de la gestion et de l’analyse de données collectée par la plateforme. Il est en outre en charge de la modélisation et la résolution de problèmes complexes, de la recherche de nouveaux concepts par l’usage de statistiques, d’algorithmes, d’analyses et de techniques de visualisation.

Recherche​

  • Mettre en place des travaux de recherche, d’innovation sur des problématiques techniques et algorithmiques afin d’extraire de la valeur pour le produit et/ou les clients.​
  • Exceller selon l’état de l’art dans l’exploration des données afin d’y extraire la connaissance nécessaire au développement de nouvelles fonctionnalités du produit.​
  • Produire des analyses « ad ’hoc » répondant aux attentes des clients et de l’écosystème.​
  • Designer des expérimentations, tester des hypothèses, construire des modèles, évaluer la performance des modèles en continu, définir le cadre précis d’application de chaque modèle.​
  • Présenter et vulgariser les enseignements afin qu’ils soient compréhensibles par le métier.

Développement produit​

  • Assister les équipes transverses dans l’utilisation de la donnée.​
  • Être force de proposition sur des améliorations au service du métier.​
  • Production d’éléments scientifiques, technologiques de la feuille de route.​
  • Assurer les extractions et autres intégrations de données.​
  • Assurer l’intégrité de la plateforme scientifique.​
  • Mettre en place une démarche permanente de « veille » technologique et scientifique.

Opérations​

  • Nettoyer, assurer la qualité, l’exactitude et la disponibilité des données créées par la plateforme.​
  • Définir et appliquer les règles de gestion efficaces de données.​
  • Superviser et analyser les systèmes, ainsi que leurs performances.

Profil recherché

  • Rigueur et haut standard dans la qualité du code produit.​
  • Maîtrise du python, des librairies de data science (Pandas, SciKitLearn, NetworkX, Gensim, Pymc, SciPy, NLTK …).​
  • Maîtrise de la stack Hadoop / Spark.​
  • Maîtrise des concepts du Machine Learning.​
  • Autonomie et capacité à prendre des décisions.​
  • Capacité à évoluer dans un environnement anglophone.

Nice to have

  • Connaissance des environnements clouds publics (AWS / Azure).​
  • Connaissance du C++.

Ingénieur Intelligence Artificielle Junior

Mipsology est une start-up dans le domaine de l’Intelligence Artificielle qui s’est donné pour but de concevoir et commercialiser des solutions matérielles et logicielles innovantes dédiées aux data centers. A base de composants flexibles (FPGA), notre technologie offre de multiples avantages par rapport aux solutions classiques à base de CPU ou de GPU. Ceci se traduit pour nos clients par une augmentation de leur capacité à donner du sens et de la valeur à leur Big Data. Nous avons été reconnu par un prix au Concours Mondial de l’Innovation, et avons clos un premier tour d’investissement pour assurer notre développement.

Votre objectif sera de permettre la validation de la capacité d’intégration de nos solutions dans les différents environnements de déploiement (Spark, Hadoop…) ou frameworks (Caffe, Keras, TensorFlow…) en faisant varier les types de réseaux de neurones, les API (Python, C++…) … Pour cela, il faudra :

  • Suivre les nouveautés ;
  • Installer les différents outils et maintenir les nouvelles versions ;
  • Mettre en place les tutoriaux ;
  • Former les équipes de R&D sur ces outils ;
  • Participer à l’intégration de nos solutions dans ces outils ;
  • Intégrer les tutoriaux dans notre flot de validation ;

Data Scientist

En Europe, plus de 200 milliards d’euros sont dépensés chaque année en promotion et remises.

Lucky Cart a créé la 1ère Promotion Management Platform pour permettre aux distributeurs et aux marques d’optimiser leurs investissements promotionnels. Ils sont ainsi aujourd’hui plus de 150 à profiter de nos solutions d’intelligence promotionnelle.

Chez Lucky Cart, depuis notre création en 2010, nous partageons une vision de l’entreprise simple : pas de plaisir sans réussite mais pas de réussite sans plaisir. Le bien être de nos employés est donc naturellement l’une de nos priorités. Certaines valeurs nous tiennent également particulièrement à coeur, comme l’engagement, l’esprit d’équipe, l’humilité, le respect et la convivialité. Arrêtez-vous là si vous ne les partagez pas !

La forte croissance que nous enregistrons et l’importance primordiale de la data pour Lucky Cart nous amènent à renforcer notre équipe technique en recrutant un(e) Data Scientist (H/F).

 

DESCRIPTIF DU POSTE

Rattaché(e) au Chief Data & Science Officer, vos travaux d’innovation et de recherche en data science,  recherche opérationnelle et économétrie permettront de faire évoluer les produits de Lucky Cart, d’évaluer au mieux leur performance et d’élargir la palette de services connexes.

Au cœur de la société, vous travaillerez au quotidien avec toutes les équipes impliquées (commercial, marketing et finance) pour mener à bien vos missions.

Vos recherches pourront faire l’objet de publications, de présentation dans des séminaires ou des meetups et de dépôts de brevet.

 

MISSIONS

  • Développer des modèles prédictifs répondant aux besoins business de la plateforme de management des promotions, sur des volumes de données très importants, en grande dimension, en mode batch puis quasi en temps réel,
  • Opérationnaliser ces modèles prédictifs dans des temps courts pour les campagnes promotionnelles des clients de Lucky Cart,
  • Participer à l’évaluation de la performance de ces modèles en termes scientifiques, business et système (disponibilité, performance, sécurité),
  • Participer à l’élaboration du plan d’innovation et au suivi de la planification des tâches,
  • Participer à la veille scientifique et au rayonnement de l’équipe.

 

COMPÉTENCES

  • Savoir poser et traiter un problème métier en s’appuyant sur les données et la recherche quantitative et savoir communiquer efficacement les résultats.
  • Maitriser la théorie et la pratique des concepts et des algorithmes de statistiques, de data science, de deep learning et d’optimisation en général (recherche opérationnelle notamment),
  • Maitriser au moins un langage couramment utilisé dans la communauté data scientist (Python, R, Scala) et les librairies utilisées en machine learning
  • Maîtriser SQL ou un SQL-like.
  • Être sensibilisé aux questions liées à la sécurité des données, la protection de la vie privée et à l’usage éthique des données,
  • Être constamment curieux des environnements business, techniques et scientifiques de Lucky Cart et savoir partager cette curiosité.

 

COMPÉTENCES SOUHAITABLES

  • Avoir effectué des recherches en lien avec le e-commerce ou la grande distribution,
  • Maitriser une ou plusieurs technologie(s) big data Spark notamment,
  • Être familier avec au moins une des problématique suivante : le traitement de volumes de données très importants, la gestion de modèle de grande dimension, ou le machine learning en temps réel,
  • Avoir une première expérience avec une ou plusieurs librairie de deep learning (pytorch ou tensorflow notamment),
  • Avoir des connaissances ou une expérience d’utilisation d’outils dans le Cloud (AWS par exemple),
  • Avoir participé à des compétitions de data science.

 

PROFIL

  • Bac +5 mini,
  • Grande Ecole d’ingénieur, Phd (CIFRE) ou Master Recherche,
  • Anglais courant,
  • 6 mois à 2 ans d’expérience mini en data science, idéalement chez l’un des acteurs suivants: Nielsen, Kantar, HighCo, Catalina…

 

LES PLUS

 

  • Un poste clé à très forte valeur ajoutée au cœur de la stratégie de développement de Lucky Cart,
  • Une ambiance de travail startup / scale-up, Work Hard / Play Hard,
  • Un encadrement complet (scientifique, business et interpersonnel) par des professionnels expérimentés,
  • De sérieuses perspectives d’évolution (encadrement, périmètre),
  • Une immersion dans le secteur le plus dynamique du moment : le e-commerce.

 

Salaire et variable attractifs selon profils.

Tickets restaurant et Mutuelle.

Participation au capital de la société sous conditions.

 

CV à envoyer à hr@luckycart.com

Pour plus d’informations : www.luckycart.com/fr/

 

Data Engineer

A propos de Datawords

Datawords est le pionnier d’une nouvelle discipline, l’e-Multiculturalisme, qui permet à ses clients, grandes marques et acteurs du e-commerce, d’accélérer leur déploiement international.

Datawords a en effet développé un savoir-faire et une expertise uniques dans l’adaptation, la localisation et l’actualisation digitale multilingue. Au croisement de la sémantique et de la technique, l’agence intervient à tous les niveaux de la production digitale multilingue pour s’assurer que le marketing digital d’une marque soit déployé à l’international, de façon pertinente et synchronisée, pour des performances optimales.

Datawords compte aujourd’hui 500 collaborateurs, représentant une quarantaine de nationalités et plus d’une cinquantaine de langues. La société est implantée en France, en Italie, en Allemagne, en Angleterre, en Corée du Sud, à Hong Kong, au Japon, à New-York et, depuis peu, à Barcelone et à Milan. Datawords est une entreprise en pleine croissance et à l’identité forte qui offre aux candidats passionnés par les nouvelles technologies et le multiculturalisme une opportunité unique de participer à l’aventure du web et d’appréhender ses multiples enjeux à l’international.

Afin de répondre aux évolutions technologiques et aux défis croissants du secteur en termes d’innovation, Datawords recherche un/une Data Engineer (H/F).

 

Description du poste

Equipe

La croissance continue de Datawords se traduit par des projets d’adaptation de contenu digital multilingue toujours plus nombreux et d’envergure grandissante. Nous recueillons ainsi de plus en plus de données sémantiques multilingues et de données liées à l’utilisation de nos plateformes.

Partant de ce constat et en anticipant la situation dans quelques années, nous sommes convaincus que les dernières technologies web et l’intelligence artificielle seront au coeur de notre stratégie pour atteindre notre objectif : devenir un leader mondial de notre secteur. C’est pourquoi nous avons récemment créé l’équipe Machine Learning et NLP composée de Data Engineers. Elle est encadrée par notre CTO et un Consultant Digital et collabore étroitement avec l’équipe de Semantic Solutions Developers.

Son objectif premier est la construction d’une offre pérenne et complète de services “intelligents” en lien avec nos activités. Ces services doivent pouvoir interagir avec nos plateformes logicielles qui leur mettent des données à disposition et qui reçoivent en échange des feedbacks data-driven.

Quelques aspects de l’ADN de l’équipe :

– Approche systémique
– Travaux organisés autour de sprints de 2 semaines
– Benchmarking des solutions déjà existantes sur le marché
– Développement et déploiement en MVP (Minimum Viable Product)
– Amélioration et innovation continues
– Coordination et communication auprès d’autres équipes
Missions

En rejoignant l’équipe Machine Learning et NLP en tant que Data Engineer, vos défis seront nombreux. Ils seront tout d’abord d’ordre technique et technologique avec la prise en main de notre environnement data, la compréhension de nos problématiques et le développement de services à haute valeur ajoutée. Il sera également attendu de vous que vous développiez l’équipe et pérennisiez son offre en interne dans un premier temps et auprès de nos clients à plus long terme.

De manière plus précise, vous pourrez être amené à travailler sur les missions suivantes :

– Contribution au monitoring et à la maintenance des services en production

– Conception et déploiement de nouveaux services “intelligents” (NB : les services sémantiquesdevront être développés en ayant en permanence le souci de la perspective multilingue)

– Si les résultats liés à un service innovant que vous avez contribué à développer et déployer sont concluants, la rédaction d’un papier dans l’optique d’une soumission pour publication dans une revue scientifique ou pour une conférence pourra être envisagée

– La veille technologique et concurrentielleVeille sur les différentes librairies open source intéressantes pour nos services
> Veille sur les services cognitifs (IBM Watson, Google, Azure…)
> Participation aux principaux salons d’intelligence artificielle de la région
> Suivi de l’évolution de l’offre de nos concurrents

– Le développement de l’équipe

> Pédagogie auprès des autres équipes sur la proposition de valeurs de l’équipe
> Participation à la rédaction de supports de communication interne et externe de l’équipe
> Représentation de l’équipe lors des actions école
> Participation au recrutement de stagaires et de profils juniors
Profil recherché

Parcours

– Diplômé(e) d’une Grande Ecole d’Ingénieurs
– Expériences dans la conception et le déploiement de solutions d’intelligence artificielle
Qualités recherchées

– Compétences en programmation et en déploiement de services (Python, Django REST, SQL, Docker, Redis…)
– Connaissances des principales librairies de Machine Learning et de NLP (Scikit Learn, Tensor Flow, NLTK, Gensim, OpenNMT…)
– Grande autonomie, rigueur
– Esprit d’initiative et de créativité
– Capacités de synthèse et de restitution des informations
Compétences et expériences appréciées

– Connaissances des services cognitifs IBM Watson, Google, Azure
– Expérience à l’international

Big Data Administrator H/F

Nous rejoindre c’est :

  • Prendre part à un challenge technique autour du Machine Learning et des technologies Big Data sur des problématiques de temps réel.
  • Travailler sur un sujet stratégique dans la sécurité et la fraude bancaire.
  • Intégrer une équipe dynamique fonctionnant en mode lean startup et aimant partager leurs expériences et connaissances.
  • Rejoindre une nouvelle Business Unit (BU) au sein d’une société référente dans le domaine de la sécurité des données et des communications.

Vos missions consisteraient à :

  • Participer à la conception des nouveaux produits de la BU Analytics
  • Installer et déployer les outils et environnements logiciels
  • Automatiser la solution
  • Mettre en oeuvre des tests d’intégration, de système et tests fonctionnels
  • Administrer et exploiter les clusters Hadoop
  • Contribuer à l’amélioration des processus, pratiques, techniques et technologies utilisées

Expériences professionnelles demandées :

  • Expérience opérationnelle en développement logiciel
  • Expérience en déploiement et administration de serveur
  • Expérience en bases de données (SQL, MySQL, NoSQL)
  •   Travail en mode Scrum et DevOps

Informations complémentaires :

  • Lieu : Vélizy ou Marseille (prévoir déplacements ponctuels)
  • Niveau d’études : A partir de Bac+3
  • Niveau d’expérience : minimum 2 ans
  • Discrétion et confidentialité requises

Mieux nous connaitre : Depuis plus de 30 ans, ERCOM est un acteur français de référence dans la cybersécurité et les réseaux de communication. Forte de cette expertise dans la sécurité des données et leur traitement en temps réel, Ercom a créée fin 2016 sa Business Unit Analytics, afin d’adresser de nouveaux marchés B2B. Sous un format startup interne, cette nouvelle BU développe des produits logiciels très largement inspirés par les innovations technologiques récentes en data science et machine learning.

Data Scientist

REF: CF00008

About CARFIT Corporation

CARFIT has developed a unique way to detect car problems by analyzing vibrations at the steering wheel. We are funded and growing and are seeking a top notch full-stack software engineer to help take us to the next level. For more details, please see www.car.fit.

About You

You are an experienced data scientist with expertise in mining time-series and frequency data for insights.

You have a passion for excellence and ensuring the least possible false positives, while optimizing your algorithms for large-scale deployements.

You are curious about new technology and always expanding your knowledge of the latest and greatest data science tools.

You also have been instrumental in finding data-driven opportunities in industrial, automotive, or other mechanical applications and have been involved in at least one broadly used product.

You have some software development experience with Python and a strong mathematics background.

If this sounds like you please reach out. We’re ready to hire for this position now.

 

Responsibilities

You will be responsible for ensuring that our machine learning systems are continually growing , evolving, and improving and that they are generating new insights into vehicle problems based-on new and existing data sources.  You will discover new relationships in the data, propose, execute, and deliver on data science projects.

Your daily duties will include:

  • Extracting and analyzing data to derive actionable insights.
  • Formulating success metrics for completely novel relationships, productizing them, and creating dashboards/reports to monitor them.
  • Leaveraging machine learning tools (e.g. DataRobot, AWS AI, etc.) to establish new relationships in the data that generate value for the company.
  • Working closely with the other team members to improve and evolve the product.
  • Establishing internal and external success metrics and implementing them across the company and across the company’s systems.

Requirements

  • BS/MS in a quantitative discipline: Statistics, Computer Science, Engineering, Operations Research, Applied Mathematics, or any related disciplines.
  • 1+ year(s) experience working with large amounts of real data with SQL and/or noSQL
  • 1+ year(s) experience with Matlab, R, Hadoop, Kafka, Java, Python, Pig, and/or other analysis software languages and tools
  • Proficiency in a Unix/Linux environment for automating processes with shell scripting.
  • Able to translate business objectives into actionable analyses.
  • Able to communicate findings clearly to both technical and non-technical audiences

Our Locations

CARFIT has offices in Portland, Oregon (USA), Lille (France), and Hong Kong.
www.car.fit

Développeur en Data Science (Data Scientist « Type B »)

1. Présentation

Datapred édite un logiciel de machine learning B2B spécialisé dans les séries temporelles.

Ce logiciel aide les grands groupes des secteurs de la distribution, de la finance et de la logistique à résoudre des problèmes complexes d’analyse, d’optimisation et de prédiction dont les données évoluent dans le temps : allocation dynamique de stocks, profilage d’opportunités commerciales, prédiction de demande, maintenance prédictive…

Nous travaillons exclusivement avec des multinationales, françaises et étrangères. Nous sommes en forte croissance depuis notre création en 2014. Nous disposons d’un technologie propriétaire à la pointe du machine learning, fondée sur l’apprentissage séquentiel et l’apprentissage profond.

Nous sommes incubés à Telecom ParisTech, labellisés Scientipôle Initiative et autofinancés.

Nous évoluons dans un environnement technique dynamique et stimulant mettant en œuvre les méthodes et technologies les plus récentes (TensorFlow, calculs sur GPU, Spark…).

2. Poste
Nous recherchons un développeur intéressé par les aspects informatiques comme mathématiques du machine learning, pour contribuer au développement et à la pérennisation de notre technologie.

Ce membre clé de l’équipe travaillera en collaboration directe avec notre directeur technique pour :

–        Faire évoluer notre code et garantir sa qualité.

–        Gérer notre environnement de développement (infrastructure, outils, roadmap, sécurité).

–        Mettre notre logiciel en production pour nos clients (dans le cloud ou leur datacenter).

–        Optimiser les flux de données entre notre logiciel, les systèmes de gestion et bases de données de nos clients et les open data pertinentes.

–        Contribuer à notre réflexion sur les modèles prédictifs utilisés par notre logiciel.

 

3. Compétences techniques

Nous recherchons les compétences suivantes :

–        Expertise en Python, en développement de code réutilisable et performant.

–        Maîtrise de git, Github, outils d’intégration continue.

–        Maîtrise de Linux, Docker, AWS.

–        Connaissances avancées en machine learning.

–        Expertise en calculs distribués et architectures cloud (calcul, stockage) – plus globalement en automatisation et mise en production de solutions algorithmiques.

 

4. Qualités

Nous aimons les ingénieurs avec les qualités suivantes :

–        Intérêt pour les méthodes de développement agiles.

–        Mentalité « couteau suisse » : pragmatisme, adaptabilité, proactivité, simplicité.

–        Professionnalisme, rigueur, attention aux détails.

 

5. Expérience

Trois ans d’expérience en développement orienté objet (C++ ou Python).

Data Scientist

Fondé en 1989, le Groupe Eurogiciel est présent au niveau national (9 agences) et international (Royaume-Uni, Belgique, Allemagne, Espagne, Canada et Etats-Unis). Avec un effectif de 1000 personnes, le Groupe intervient sur des projets d’envergure et offre à ses collaborateurs de fortes potentialités d’évolution au sein de ses filiales :

• EUROGICIEL Ingénierie, Ingénierie des Systèmes et du Logiciel

• ETOP International, Conseil en Management de Projet complexes

• EQUERT International, Conseil en Management de la Qualité et Performance Industrielle

• ETIQ, la marque du Groupe pour ses activités à l’International

Au sein d’EUROGICIEL Ingénierie, la division Big Data est dédiée aux activités et missions nécessitant la mise en œuvre de modèles complexes dans un environnement 3V (Volume, Vélocité, Variété des données) pour accompagner nos clients dans leurs problématiques de valorisation de données. Présent dans les domaines de l’industrie (aéronautique, espace), de la banque, de l’assurance, de la santé, des télécoms mais aussi les transports et l’e-commerce, la division appuie sa maitrise sur les technologies du Big Data pour déployer ses activités de conseils.

Pour participer à cette aventure et vous épanouir dans une équipe Produits, intégrez Eurogiciel en tant que Data Scientist,   Votre quotidien:

• Tester les hypothèses de manière iterative et converger vers une solution

• Tirer profit des algorithmes Machine Learning pour vous aider dans vos investigations

• Explorer visuellement et  détecter des patterns dans les données

• Documenter vos réflexions et publier vos découvertes.

Vos champs d’intervention pourront concerner les problématiques suivantes :

• Mise au point, développement  et expérimentation d’algorithmes d’apprentissage performants et scalables

• Data Mining et statistiques : élaboration de modèles explicatifs et prédictifs d’aide à la décision (ingénierie statistique, économétrie, prévision, diagnostic quantitatif, …)

• Traitement de données  massives, non structurées et time-series

• Expérimentation des algorithmes avec des technologies Spark, Hadoop et bases de données nosql

Compétences et expérience souhaitées : Vous avez une formation de haut niveau (PhD / Ecole d’Ingénieur / BAC+5) dans le domaine du traitement de l’information, de l’ingénierie statistique et de l’économétrie et vous justifiez idéalement d’une première expérience en Big Data ou Data Science, de préférence dans un contexte industriel. Vous avez un excellent niveau en statistiques et analyse quantitative.

Vous maitrisez la programmation en python, R ou compilés (Java, Scala, C++) et avez une expérience dans les environnements UNIX/LINUX Vous souhaitez vous impliquer et prendre rapidement des responsabilités sur des missions à forte valeur ajoutée au sein d’une structure dynamique.

Mobile, vous êtes doté(e) d’une ouverture d’esprit et d’une capacité à travailler en équipe et vous souhaitez rejoindre un environnement professionnel motivant où vous partagerez les valeurs que sont la culture du résultat, la qualité et la satisfaction client.

Anglais professionnel indispensable, poste à pourvoir à Bordeaux, Paris, Nantes ou Toulouse

Data Engineer – H/F

Rattaché(e) au pôle data, au sein de la direction des systèmes d’information, vous interviendrez sur la mise en place des flux de données sur la plateforme Amazon WebServices et en assurer le suivi opérationnel.

Dans ce cadre, vos missions seront :

  • Mise en place des flux de données sur la plateforme Amazon WebServices
    • Permettre la collecte des nouvelles données et leur stockage
    • Rendre accessible ces données selon les différents besoins (business intelligence, data science, production)
    • Assurer la cohérence et la sécurité de cet écosystème de données.
  •  Suivi opérationnel de la plateforme
    • Mettre en place des contrôles de performance des différentes briques utilisées
    • Anticiper les évolutions à prévoir.
  • Veille technologique
    • Suivre les nouvelles possibilités offertes par la plateforme
    • Détecter et planifier les montées de version.
    • Accompagnement des utilisateurs de la plateforme (data analyst, data scientist, ingénieur)