Data Scientist

Diversiti est une StartUp française, en développement, incubée à Station F. Nous assistons les opérateurs du transport urbain pour digitaliser, maîtriser et optimiser leurs réseaux de transport grâce à l’intelligence artificielle.

Actuellement, nous travaillons sur une solution qui aidera les sociétés de transport urbain à analyser puis utiliser les données pour améliorer leurs services et réduire les infractions.

Nos solutions traitent les informations, provenant des réseaux, y ajoutent une couche prédictive afin d’aider à la décision les sociétés de transport dans leurs choix de stratégie et d’organisation.

Une nouvelle génération de solutions agiles et puissantes, numériques afin de faciliter le contrôle intelligent. L’ambition de Diversiti est de devenir un acteur majeur des systèmes digitaux pour la mobilité.
POSTE
Le poste est basé à Station F (Paris).
MISSION
●        Le Data Scientist participera à la mise en place d’un POC (preuve de concept), pour les besoins de prototypage et modélisation rapide nécessaires pour un développement efficace des produits de Diversiti.

●        Conception d’une architecture Big Data avec de l’apprentissage automatique

●        Il participera à créer et mettre en production des modèles de machine learning performants et construire une architecture de données évolutive.
Accompagner l’adoption des nouvelles technologies
●        Déploiement de solutions dans le Cloud (AWS, OVH).

RÉMUNÉRATION
Selon expérience. Inclus primes.
COMPÉTENCES REQUISES
Compétences techniques
●        Expertise en statistiques et mathématiques appliquées : Connaissance machine Learning, analyse prédictive à partir de différentes bases de données.

●        Programmation informatique : Python, R, C++ ou Java.

●        Connaissances en SQL, NoSQL, MapReduce, Hadoop, Spark, Storm souhaité.

●        Expérience de déploiement dans le Cloud.

Apprécié :
●        Expérience de travail avec une solution de stockage de données en colonnes : Parquet par exemple.
●        Expérience de travail sur des solutions: Cassandra, Elasticsearch, Logstash, Kibana.

●        Expérience de travail avec de grands ensembles de données géographiques

Aptitudes professionnelles
●        Forte curiosité intellectuelle : intérêt pour le secteur du transport en commun, vision sur les enjeux stratégiques

●        Sens du résultat, pragmatisme

●        Capacité à livrer des solutions fonctionnelles dans les délais.

●        Force de décision et de conviction, pour arrêter un choix entre plusieurs solutions techniques et convaincre de la pertinence de ses propositions

●        Pragmatisme : savoir être en adéquation avec les objectifs et les contraintes spécifiques de l’entreprise.

●        Sens du travail en équipe et de la communication.

●        Grandes capacités d’organisation, d’adaptation et de réactivité.

●        Curiosité intellectuelle, afin de se tenir informé des évolutions technologiques.

●        Forte implication dans la mission de Diversiti.

LE PROFIL
Diplômes requis
●        Formation de niveau Bac +5 École d’ingénieur ou Master 2 spécialisée en informatique, Data Science ou Intelligence artificielle.

●        Doctorat en informatique, intelligence artificielle apprécié.

Expérience
Dans la construction d’infrastructures et de produits d’ingénierie de données dans le Cloud.

Points appréciés :
●        Expérience dans avec la mise en production de modèle de machine learning.

●        Expérience dans une startup à forte composante technologique.

Senior Analytics Architect for Industrie

Le World Class Center (WCC) Analytics Tessella d’Altran est un centre d’expertise réunissant des  Solution Managers, Chefs de projets, Architectes et autres Experts qui accompagnent les clients industriels internationaux du Groupe Altran dans des projets liés au domaine de l’analytics et de la Data Science (machine learning/analyse et traitement de données, traitement du signal et statistique pour la conception, la fabrication et le monitoring).

Dans le cadre du développement de ses activités et pour renforcer ses équipes, le WCC recrute un(e) Senior Analytics Architect.

 

Vous intervenez au sein des équipes de l’antenne Française (Back Office UK) et vous participez aux projets d’envergure internationale et multi-industries  de nos clients (santé, automobile, Aéronautique, Energie, industrie 4.0…). Vous êtes en charge des activités suivantes:

  • Conseil stratégique à nos clients (grands groupes à PME) dans le volet Analytics de leur transformation digitale (Rôle d’Analytics Partner)
  • Revues de pair de travaux analytics
  • Coaching des consultants ALTRAN en Analytics
  • Développement d’affaires en support des équipes commerciales
  • Contribution à des offres transverses expertises ex : Industrie 4.0 – Design & Innovation – Digital – Big Data
  • Participation à des Hackathon / Animation de workshops
  • Delivery des projets / Réalisation  de prototypes R / Python / Matlab …

 

De formation BAC+5 (Ecole d’ingénieur ou Master) spécialisée en data sciences/analytics/statistique, vous justifiez d’au moins 5 ans d’expérience sur des projets/activités Analytics dans le monde industriel.

Vous avez une réelle compréhension des techniques de la majeur partie des techniques Analytics en Machine Learning et en statistiques. Vous êtes capable de:

  • proposer une démarche structurée efficace pour atteindre l’objectif, en participant à sa définition (vision d’architecte).
  • vous projeter / Identifier la valeur business potentielle / penser hors du cadre
  • Communiquer aisément avec les différents types d’interlocuteurs (experts techniques – décideurs – IT – chefs de projets)
  • Faire preuve de proactivité

Aussi, vous aimez évoluer dans un environnement international. De ce fait, vous parlez parfaitement anglais.

 

Data Scientist

Chez Realytics, l’ambition est scandée, telle un cri de guerre : tirer le plus de valeur de la télévision ! Comment ? En permettant à ses clients, annonceurs et agences, de mesurer l’impact direct et indirect d’une publicité TV sur leurs supports digitaux (site web, application mobile, call centers). En plus de cela, Realytics leur fournit les données nécessaires afin d’optimiser leurs plans médias selon leurs KPIs business ou branding.

La start-up s’est imposée comme leader sur son marché en Europe grâce à 3 innovations majeures : Predict Impact, Brand Effect et Digital Follow-up. La 1ère anticipe les performances drive to web d’un plan média quand la 2ème analyse l’impact d’une campagne TV sur la notoriété d’une marque et la 3ème identifie les visiteurs web issus d’un spot TV pour exploiter pleinement la convergence entre TV et digital au travers de scénarios cross-medias inédits.

Le data scientist est responsable de la gestion et de l’analyse de données collectée par la plateforme. Il est en outre en charge de la modélisation et la résolution de problèmes complexes, de la recherche de nouveaux concepts par l’usage de statistiques, d’algorithmes, d’analyses et de techniques de visualisation.

Recherche​

  • Mettre en place des travaux de recherche, d’innovation sur des problématiques techniques et algorithmiques afin d’extraire de la valeur pour le produit et/ou les clients.​
  • Exceller selon l’état de l’art dans l’exploration des données afin d’y extraire la connaissance nécessaire au développement de nouvelles fonctionnalités du produit.​
  • Produire des analyses « ad ’hoc » répondant aux attentes des clients et de l’écosystème.​
  • Designer des expérimentations, tester des hypothèses, construire des modèles, évaluer la performance des modèles en continu, définir le cadre précis d’application de chaque modèle.​
  • Présenter et vulgariser les enseignements afin qu’ils soient compréhensibles par le métier.

Développement produit​

  • Assister les équipes transverses dans l’utilisation de la donnée.​
  • Être force de proposition sur des améliorations au service du métier.​
  • Production d’éléments scientifiques, technologiques de la feuille de route.​
  • Assurer les extractions et autres intégrations de données.​
  • Assurer l’intégrité de la plateforme scientifique.​
  • Mettre en place une démarche permanente de « veille » technologique et scientifique.

Opérations​

  • Nettoyer, assurer la qualité, l’exactitude et la disponibilité des données créées par la plateforme.​
  • Définir et appliquer les règles de gestion efficaces de données.​
  • Superviser et analyser les systèmes, ainsi que leurs performances.

Profil recherché

  • Rigueur et haut standard dans la qualité du code produit.​
  • Maîtrise du python, des librairies de data science (Pandas, SciKitLearn, NetworkX, Gensim, Pymc, SciPy, NLTK …).​
  • Maîtrise de la stack Hadoop / Spark.​
  • Maîtrise des concepts du Machine Learning.​
  • Autonomie et capacité à prendre des décisions.​
  • Capacité à évoluer dans un environnement anglophone.

Nice to have

  • Connaissance des environnements clouds publics (AWS / Azure).​
  • Connaissance du C++.

Ingénieur Intelligence Artificielle Junior

Mipsology est une start-up dans le domaine de l’Intelligence Artificielle qui s’est donné pour but de concevoir et commercialiser des solutions matérielles et logicielles innovantes dédiées aux data centers. A base de composants flexibles (FPGA), notre technologie offre de multiples avantages par rapport aux solutions classiques à base de CPU ou de GPU. Ceci se traduit pour nos clients par une augmentation de leur capacité à donner du sens et de la valeur à leur Big Data. Nous avons été reconnu par un prix au Concours Mondial de l’Innovation, et avons clos un premier tour d’investissement pour assurer notre développement.

Votre objectif sera de permettre la validation de la capacité d’intégration de nos solutions dans les différents environnements de déploiement (Spark, Hadoop…) ou frameworks (Caffe, Keras, TensorFlow…) en faisant varier les types de réseaux de neurones, les API (Python, C++…) … Pour cela, il faudra :

  • Suivre les nouveautés ;
  • Installer les différents outils et maintenir les nouvelles versions ;
  • Mettre en place les tutoriaux ;
  • Former les équipes de R&D sur ces outils ;
  • Participer à l’intégration de nos solutions dans ces outils ;
  • Intégrer les tutoriaux dans notre flot de validation ;

Data Scientist

En Europe, plus de 200 milliards d’euros sont dépensés chaque année en promotion et remises.

Lucky Cart a créé la 1ère Promotion Management Platform pour permettre aux distributeurs et aux marques d’optimiser leurs investissements promotionnels. Ils sont ainsi aujourd’hui plus de 150 à profiter de nos solutions d’intelligence promotionnelle.

Chez Lucky Cart, depuis notre création en 2010, nous partageons une vision de l’entreprise simple : pas de plaisir sans réussite mais pas de réussite sans plaisir. Le bien être de nos employés est donc naturellement l’une de nos priorités. Certaines valeurs nous tiennent également particulièrement à coeur, comme l’engagement, l’esprit d’équipe, l’humilité, le respect et la convivialité. Arrêtez-vous là si vous ne les partagez pas !

La forte croissance que nous enregistrons et l’importance primordiale de la data pour Lucky Cart nous amènent à renforcer notre équipe technique en recrutant un(e) Data Scientist (H/F).

 

DESCRIPTIF DU POSTE

Rattaché(e) au Chief Data & Science Officer, vos travaux d’innovation et de recherche en data science,  recherche opérationnelle et économétrie permettront de faire évoluer les produits de Lucky Cart, d’évaluer au mieux leur performance et d’élargir la palette de services connexes.

Au cœur de la société, vous travaillerez au quotidien avec toutes les équipes impliquées (commercial, marketing et finance) pour mener à bien vos missions.

Vos recherches pourront faire l’objet de publications, de présentation dans des séminaires ou des meetups et de dépôts de brevet.

 

MISSIONS

  • Développer des modèles prédictifs répondant aux besoins business de la plateforme de management des promotions, sur des volumes de données très importants, en grande dimension, en mode batch puis quasi en temps réel,
  • Opérationnaliser ces modèles prédictifs dans des temps courts pour les campagnes promotionnelles des clients de Lucky Cart,
  • Participer à l’évaluation de la performance de ces modèles en termes scientifiques, business et système (disponibilité, performance, sécurité),
  • Participer à l’élaboration du plan d’innovation et au suivi de la planification des tâches,
  • Participer à la veille scientifique et au rayonnement de l’équipe.

 

COMPÉTENCES

  • Savoir poser et traiter un problème métier en s’appuyant sur les données et la recherche quantitative et savoir communiquer efficacement les résultats.
  • Maitriser la théorie et la pratique des concepts et des algorithmes de statistiques, de data science, de deep learning et d’optimisation en général (recherche opérationnelle notamment),
  • Maitriser au moins un langage couramment utilisé dans la communauté data scientist (Python, R, Scala) et les librairies utilisées en machine learning
  • Maîtriser SQL ou un SQL-like.
  • Être sensibilisé aux questions liées à la sécurité des données, la protection de la vie privée et à l’usage éthique des données,
  • Être constamment curieux des environnements business, techniques et scientifiques de Lucky Cart et savoir partager cette curiosité.

 

COMPÉTENCES SOUHAITABLES

  • Avoir effectué des recherches en lien avec le e-commerce ou la grande distribution,
  • Maitriser une ou plusieurs technologie(s) big data Spark notamment,
  • Être familier avec au moins une des problématique suivante : le traitement de volumes de données très importants, la gestion de modèle de grande dimension, ou le machine learning en temps réel,
  • Avoir une première expérience avec une ou plusieurs librairie de deep learning (pytorch ou tensorflow notamment),
  • Avoir des connaissances ou une expérience d’utilisation d’outils dans le Cloud (AWS par exemple),
  • Avoir participé à des compétitions de data science.

 

PROFIL

  • Bac +5 mini,
  • Grande Ecole d’ingénieur, Phd (CIFRE) ou Master Recherche,
  • Anglais courant,
  • 6 mois à 2 ans d’expérience mini en data science, idéalement chez l’un des acteurs suivants: Nielsen, Kantar, HighCo, Catalina…

 

LES PLUS

 

  • Un poste clé à très forte valeur ajoutée au cœur de la stratégie de développement de Lucky Cart,
  • Une ambiance de travail startup / scale-up, Work Hard / Play Hard,
  • Un encadrement complet (scientifique, business et interpersonnel) par des professionnels expérimentés,
  • De sérieuses perspectives d’évolution (encadrement, périmètre),
  • Une immersion dans le secteur le plus dynamique du moment : le e-commerce.

 

Salaire et variable attractifs selon profils.

Tickets restaurant et Mutuelle.

Participation au capital de la société sous conditions.

 

CV à envoyer à hr@luckycart.com

Pour plus d’informations : www.luckycart.com/fr/

 

Data Consultant

Poste et missions : 

Dans le cadre d’innovation du secteur industriel, vous participerez à la définition et au développement de nouveaux concepts et outils de traitement et d’analyse automatique du Big Data.

Au sein de d’une équipe dynamique, et sous la responsabilité d’un chef de projet agile, vous serez en charge des activités suivantes :

  • Comprendre les besoins métiers et proposer des solutions pertinentes,
  • Travailler en étroite collaboration avec l’équipe chargée de définir les concepts et les algorithmes statistiques,
  • Supporter l’équipe dans les tâche de collecte de données : acquisition, nettoyage et intégration des données,
  • Prototypage et étude de divers algorithmes et intégration de la solution finale,
  • Mettre en place des techniques de prédiction et de machine Learning,
  • Prototypage et étude de divers algorithmes et intégration de la solution finale,
  • Développer des applications de visualisation de données,
  • Fournir des livrables tels que des PoC, KPIs, présentations et documents techniques

 

Profil :

Diplômé(e) de formation supérieure (Master, Ingénieur ou Grandes Ecoles), vous possédez les caractéristiques suivantes :

  • Organisé(e) et Rigoureux(euse)
  • Curiosité et intérêt pour les nouvelles technologies
  • Force de proposition
  • Proactif et rapidement autonome
  • Forte capacité à fédérer dans le temps des personnes autour d’un projet
  • Anglais avancé (projets internationaux, anglais à l’oral requis)
  • Passionné par l’innovation et les nouvelles technologies

 

Vous devez avoir une première expérience dans ces domaines :

 

  • Langage de programmation (Python, R, Java, etc)
  • Compétence analytique et technique en traitement des données (Machine Learning / Deep Learning…) et Text Mining
  • Big data ecosysteme (Hadoop, Spark)  constitue un atout
  • Base de données NoSQL (ElasticSearch, MongoDB, Neo4j) est un plus,
  • Visualisation des données (D3js, Kibana, Tableau, Spotfire, etc)
  • Durée du stage :                + 5mois
  • Lieux :                                France (Toulouse) – 3 boulevard Henri Ziegler – Blagnac
  • Indemnité :                         A négocier en fonction du profil

Ingenieur Big Data

L’entreprise :

Créée en 2000, l’agence Ciblo, c’est 25 experts du e-commerce reconnus par le secteur :
• Accréditations Google Partners
• Obtention du label « Oséo Anvar »
• Publications clés sur le « Référencement » et le « Web 2.0 »
• Créateur et organisateur des palmes e-commerce avec la CCI de Paris
Notre taille nous confère une réactivité et une flexibilité particulièrement appréciées par nos clients.
Cela nous permet également de nous adapter rapidement aux évolutions constantes du marché et des outils.
Depuis 3 ans, l’entreprise a axé sa stratégie commerciale autour de la commercialisation de notre plateforme Spectro Commerce. Cette plateforme innovante qui permet aux e-commerçants de piloter efficacement leur activité est née de l’alliance de nos différentes expertises (SEA, SEO, Webdesign, Développement web, Data Science…) et de nos nombreuses années d‘expérience dans la vente en ligne.

Les missions :

L’innovation fait partie de l’ADN de l’agence. Nous avons su au fil des années nous réinventer et adapter nos prestations afin de conserver notre expertise sur nos différents métiers et de répondre aux attentes toujours plus grandes de nos clients.

Pour soutenir l’innovation, nous avons récemment créé un lab innovation afin de tester la création de nouvelles fonctionnalités reposant sur les technologies de pointe dans le domaine du Big Data et de la data science.

Sous la responsabilité du Product Owner, vous travaillerez en collaboration avec un Data scientist et serez responsable du développement de nouvelles fonctionnalités.

En fonction des problématiques, vous serez amené à travailler sur des domaines variés :

  • Traitement du langage naturel afin de créer un chatbot ou encore relier la plateforme à Amazon Echo
  • Analytics en temps réel (Kafka, Spark Streaming…)
  • Recommandations et personnalisation sur les sites e-commerce
  • Prédiction des actions des clients et visiteurs

Vous serez accueilli(e) au sein d’une équipe jeune et dynamique en open-space.

Plus en détail, vous aurez pour missions :

  • Conception de l’architecture
  • Mise en place et configuration des outils
  • Gestion et orchestration des données
  • Implémentation des algorithmes
  • Optimisation des performances des algorithmes de machine learning

Le profil :

Étudiant suivant une formation auprès d’une École Ingénierie Informatique avec une spécialisation dans le Big Data
Passionné et force de proposition
Compétences solides en mathématiques et statistiques
Bonne maîtrise de Java/Scala ou Python
Une première expérience avec Kafka et Spark Streaming serait un plus
Une première expérience dans la création de chatbot serait un plus

Les plus de l’offre :
Poste en R&D
Utilisation de technologies innovantes
Possibilité d’adapter les missions en fonction des compétences et des affinités du candidat (NLP/analytics en temps réel/ prédiction etc.)
L’entreprise vous laisse une réelle autonomie et est l’écoute de vos idées

Software Data Engineer H/F

Nous rejoindre c’est :

  • Prendre part à un challenge technique autour du Machine Learning et des technologies Big Data sur des problématiques de temps réel.
  • Travailler sur un sujet stratégique dans la sécurité et la fraude bancaire.
  • Intégrer une équipe dynamique fonctionnant en mode lean startup et aimant partager leurs expériences et connaissances.
  • Rejoindre une nouvelle Business Unit (BU) au sein d’une société référente dans le domaine de la sécurité des données et des communications.

Vos missions consisteraient à :

  • Participer à la conception des nouveaux produits de la BU Analytics
  • Analyser les besoins technologiques de nouveaux use cases
  • Proposer des choix technologiques en collaborant avec l’Architecte Big Data
  • Développer sous des technologies Big Data (Scala, Spark, Kafka…)
  • Contribuer à l’amélioration des processus, pratiques, techniques et technologies utilisées
  • Représenter et soutenir les choix techniques d’ERCOM vis-à-vis de clients ou prospects, et intervenir auprès du Product Manager et des forces de vente à divers stades.

Expériences professionnelles demandées :

  • Une ou plusieurs expériences sur la mise en place d’architectures Big Data sur des thèmes de traitements analytiques de données à grande ampleur, de préférence avec des aspects de temps réel et traitements de données en flux.
  • Une expérience en position de conseil (interne ou externe) ou en cellule transverse serait appréciée.
  • Maîtriser les outils et pratiques de développement logiciel agile.

Informations complémentaires :

  • Lieu : Vélizy ou Marseille (prévoir déplacements ponctuels)
  • Formation : Bac+5 Ecole d’ingénieurs ou université
  • Niveau d’expérience : minimum 3 ans
  • Discrétion et confidentialité requises

Mieux nous connaitre :

Depuis plus de 30 ans, ERCOM est un acteur français de référence dans la cybersécurité et les réseaux de communication. Forte de cette expertise dans la sécurité des données et leur traitement en temps réel, Ercom a créée fin 2016 sa Business Unit Analytics, afin d’adresser de nouveaux marchés B2B. Sous un format startup interne, cette nouvelle BU développe des produits logiciels très largement inspirés par les innovations technologiques récentes en data science et machine learning.

Big Data Administrator H/F

Nous rejoindre c’est :

  • Prendre part à un challenge technique autour du Machine Learning et des technologies Big Data sur des problématiques de temps réel.
  • Travailler sur un sujet stratégique dans la sécurité et la fraude bancaire.
  • Intégrer une équipe dynamique fonctionnant en mode lean startup et aimant partager leurs expériences et connaissances.
  • Rejoindre une nouvelle Business Unit (BU) au sein d’une société référente dans le domaine de la sécurité des données et des communications.

Vos missions consisteraient à :

  • Participer à la conception des nouveaux produits de la BU Analytics
  • Installer et déployer les outils et environnements logiciels
  • Automatiser la solution
  • Mettre en oeuvre des tests d’intégration, de système et tests fonctionnels
  • Administrer et exploiter les clusters Hadoop
  • Contribuer à l’amélioration des processus, pratiques, techniques et technologies utilisées

Expériences professionnelles demandées :

  • Expérience opérationnelle en développement logiciel
  • Expérience en déploiement et administration de serveur
  • Expérience en bases de données (SQL, MySQL, NoSQL)
  •   Travail en mode Scrum et DevOps

Informations complémentaires :

  • Lieu : Vélizy ou Marseille (prévoir déplacements ponctuels)
  • Niveau d’études : A partir de Bac+3
  • Niveau d’expérience : minimum 2 ans
  • Discrétion et confidentialité requises

Mieux nous connaitre : Depuis plus de 30 ans, ERCOM est un acteur français de référence dans la cybersécurité et les réseaux de communication. Forte de cette expertise dans la sécurité des données et leur traitement en temps réel, Ercom a créée fin 2016 sa Business Unit Analytics, afin d’adresser de nouveaux marchés B2B. Sous un format startup interne, cette nouvelle BU développe des produits logiciels très largement inspirés par les innovations technologiques récentes en data science et machine learning.